3. Vícevrstvé dopředné sítě

Podobné dokumenty
Trénování sítě pomocí učení s učitelem

Umělé neuronové sítě

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Lineární klasifikátory

Algoritmy a struktury neuropočítačů ASN - P11

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Vytěžování znalostí z dat

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Preceptron přednáška ze dne

Rosenblattův perceptron

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Neuronové sítě v DPZ

Úvod do optimalizace, metody hladké optimalizace

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

Neuronové sítě Ladislav Horký Karel Břinda

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

Typy umělých neuronových sítí

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

2. RBF neuronové sítě

Neuronové sítě Učení bipolárního perceptronu

Matematika B101MA1, B101MA2

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

1 Determinanty a inverzní matice

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

NG C Implementace plně rekurentní

Hammingovy kódy. dekódování H.kódů. konstrukce. šifrování. Fanova rovina charakteristický vektor. princip generující a prověrková matice

PV021: Neuronové sítě. Tomáš Brázdil

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Aplikovaná numerická matematika

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Klasifikace předmětů a jevů

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Využití neuronové sítě pro identifikaci realného systému

Lineární diskriminační funkce. Perceptronový algoritmus.

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

ANALÝZA A KLASIFIKACE DAT

Algoritmy a struktury neuropočítačů ASN - P1

Emergence chování robotických agentů: neuroevoluce

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

PRAVDĚPODOBNOST A STATISTIKA

1 Vektorové prostory.

a počtem sloupců druhé matice. Spočítejme součin A.B. Označme matici A.B = M, pro její prvky platí:

vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých mocnin). Rozhodněte o definitnosti kvadratické formy κ(x).

8.3). S ohledem na jednoduchost a názornost je výhodné seznámit se s touto Základní pojmy a vztahy. Definice

Řešení. Hledaná dimenze je (podle definice) rovna hodnosti matice. a a 2 2 1

IB112 Základy matematiky

Pokročilé metody učení neuronových sítí. Tomáš Řehořek

1. července 2010

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Kybernetika a umělá inteligence, cvičení 10/11

V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti

9 Kolmost vektorových podprostorů


Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:

2. Určete jádro KerL zobrazení L, tj. nalezněte alespoň jednu jeho bázi a určete jeho dimenzi.

Matice. Modifikace matic eliminační metodou. α A = α a 2,1, α a 2,2,..., α a 2,n α a m,1, α a m,2,..., α a m,n

Obsah: 1. Úvod Architektura Instalace Hardwarové požadavky Softwarové požadavky Data...

6 Ordinální informace o kritériích

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY

VYSOKÁ ŠKOLA EKONOMICKÁ V PRAZE. Optimalizace trasy při revizích elektrospotřebičů

Soustavy linea rnı ch rovnic

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

na magisterský studijní obor Učitelství matematiky pro střední školy

Dá se ukázat, že vzdálenost dvou bodů má tyto vlastnosti: 2.2 Vektor, souřadnice vektoru a algebraické operace s vektory

Dijkstrův algoritmus

cv3.tex. Vzorec pro úplnou pravděpodobnost

Lingebraické kapitolky - Analytická geometrie

Jedná se o soustavy ve tvaru A X = B, kde A je daná matice typu m n,

Operační výzkum. Vícekriteriální programování. Lexikografická metoda. Metoda agregace účelových funkcí. Cílové programování.

( ) ( ) Lineární nerovnice II. Předpoklady: Jak je to s problémem z minulé hodiny? Získali jsme dvě řešení nerovnice x < 3 :

Problém lineární komplementarity a kvadratické programování

4EK213 Lineární modely. 5. Dualita v úlohách LP

LOKALIZACE ZDROJŮ AE NEURONOVÝMI SÍTĚMI NEZÁVISLE NA ZMĚNÁCH MATERIÁLU A MĚŘÍTKA

CVIČENÍ 4 Doc.Ing.Kateřina Hyniová, CSc. Katedra číslicového návrhu Fakulta informačních technologií České vysoké učení technické v Praze 4.

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Využití přímé inverzní metody pro řízení reálných systémů

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Rozdělování dat do trénovacích a testovacích množin

4EK213 Lineární modely. 12. Dopravní problém výchozí řešení

ANTAGONISTICKE HRY 172

Neuronové sítě (11. přednáška)

IBM SPSS Neural Networks

0.1 Úvod do lineární algebry

Teorie her a ekonomické rozhodování. 3. Dvoumaticové hry (Bimaticové hry)

Věta 12.3 : Věta 12.4 (princip superpozice) : [MA1-18:P12.7] rovnice typu y (n) + p n 1 (x)y (n 1) p 1 (x)y + p 0 (x)y = q(x) (6)

pro řešení soustav lineárních rovnic. Gaussova eliminační metoda pro řešení soustavy lineárních rovnic sestává ze dvou kroků:

Úloha - rozpoznávání číslic

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Lineární algebra Operace s vektory a maticemi

1 Co jsou lineární kódy

Poznámka. V některých literaturách se pro označení vektoru také používá symbolu u.

Transkript:

3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze ze vstupu sítě na její výstup (tzn. vícevrstvé dopředné sítě nemají v pracovní fázi zpětnou vazbu).! V literatuře se vyskytují pod různými názvy: < sítě s dopředným šířením < feedforward networks < multilayer perceptron (MLP) < MLP sítě < vícevrstvý perceptron < perceptronové sítě <

3.1. Jednovrstvá síť s binární bipolární aktivační funkcí 1 x w 11 1 y 1-1 b 1 x 2 1 y 2-1 b 2 x i w ji 1 w 1n b j - 1 y j x n w mn +1 b m 1-1 y m x = [x 1, x 2,..., x i,..., x n ] T... vstupní vektor... váhová matice b = [b 1, b 2,..., b j,..., b m ] T... prahový vektor y = [y 1, y 2,..., y j,..., y m ] T... výstupní vektor Pro výstup j-tého neuronu platí:

Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup sítě byl pro všechny vstupní vektory z trénovací množiny správný, tzn. aby celková chyba definovaná vztahem byla nulová (minimální ). Přitom je skutečný výstup sítě pro vstup x p, u p je požadovaný výstup sítě pro vstup x p, P je počet trénovacích dvojic, g p je chyba od p-té trénovací dvojice.

Co vlastně po síti při trénování chceme? Ilustrační představa pro 1 perceptron: x 1 w j1 x i w ji w jn 1-1 y j x n b j +1! Předpokládejme, že chceme změnit jedinou váhu, např. w ji, a využijeme k tomu konkrétní trénovací dvojici, např. [x,u]; skutečný výstup pro vstup x označíme y j.! Jak w ji najít? 1. Pokud je výstup sítě správný, tj. y j = u, není třeba w ji měnit. 2. Pokud je výstup sítě chybný, tj. y j u, je třeba w ji upravit. Mohou nastat pouze 2 chybné případy: a) Chceme u = +1, a vyšlo y j = -1. b) Chceme u = -1, a vyšlo y j = +1.

Ad a) Platí Protože vyšlo y j = -1, muselo platit Chceme ale, aby platilo y j = u = 1, tzn. chceme, aby platilo. Aby k tomu došlo, musí se některý ze sčítanců na levé straně nerovnosti (*) zvětšit. Předpokládáme, že chceme změnit pouze w ji, tzn. všechno kromě w ji považujeme konstanty. Upravíme tedy w ji na w ji * tak, aby platilo w ji *@x i > w ji @x i. To znamená, že pro x i > 0 je třeba w ji zvětšit a pro x i < 0 je třeba w ji zmenšit. To zaručuje vztah kde c > 0 je tzv. konstanta učení. Ad b) analogicky, vyjde též vztah (**).

Vztah (**) lze zobecnit na všechny váhy a prahy sítě, a pro změnu vah a prahů pak platí vztahy... pravidlo učení perceptronu (k je čas) Princip trénovacího algoritmu 1. Inicializace vah a prahů sítě 2. Dokud není splněna zastavovací podmínka a. Výpočet skutečného výstupu pro zadaný vstup b. Modifikace vah a prahů

Algoritmus trénování jednovrstvé sítě s binární bipolární aktivační funkcí Vstupní podmínky: Je dána trénovací množina, tj. P dvojic [x p,u p ], p=1,2,...,p. x p je vstupní vektor dimenze n u p je požadovaný výstupní vektor dimenze m pro vstupní vektor x p 1. krok - Inicializace! Váhovou matici W(1) typu m n a prahový vektor b(1) dimenze m inicializujeme malými náhodnými čísly.! Zvolíme c > 0, E max $ 0 a TC max > 0.! Stanovíme k =1, p = 1, q = 0 a E(0) = 0. E max TC max je maximální povolená chyba, na kterou nebo pod kterou se chceme dostat je maximální počet trénovacích cyklů, ve kterých chceme síť natrénovat q je počet trénovacích cyklů E je chyba způsobená nesprávnou činností sítě během jednoho trénovacího cyklu c je konstanta učení

2. krok - Výpočet výstupu x(k) = x p y(k) = [sgn(w 1 (k)@x(k)+b 1 (k)), sgn(w 2 (k)@x(k)+b 2 (k)),..., sgn(w m (k)@x(k)+b m (k))] T u(k) = u p w i b i je i-tá řádka matice W je i-tý prvek vektoru b 3. krok - Výpočet chyby E(k)=E(k-1)+½(u(k)-y(k)) T (u(k)-y(k)) 4. krok - Modifikace vah a prahů 5. krok - Konec trénovacího cyklu Je-li p < P potom p = p +1 k = k +1 jdi na krok 2) jinak q = q +1 jdi na krok 6)

6. krok - Konec trénování E c (q) = E(k) Je-li E c (q) # E max potom KONEC (síť se podařilo natrénovat) jinak je-li q > TC max potom K O N E C ( s íť se jinak E(0) = 0 nepodařilo natrénovat) k = k +1 p = 1 jdi na krok 2)

Poznámky k trénování sítě:! Jednovrstvou síť lze natrénovat v případě, že data z trénovací množiny jsou uspořádána do shluků tak, že shluky jsou lineárně separabilní, tj. oddělitelné přímkou. (Pozor na požadovaný výstup!!!). Pokud jsou data uspořádána jinak, síť natrénovat nelze.! Pro výpočet celkové chyby E c lze využít též vztah kde M je počet výstupů sítě, P je počet trénovacích dvojic v trénovací množině a u pm resp. y pm je m-tá složka vektoru u p, resp. y p. Takto definovaná chyba umožňuje lépe posoudit činnost sítí s různým počtem výstupů a různě velkou trénovací množinou.! Jednovrstvou síť s binární unipolární aktivační funkcí lze trénovat stejným algoritmem.