2. RBF neuronové sítě

Podobné dokumenty
Euklidovský prostor Stručnější verze

Kapitola 11. Vzdálenost v grafech Matice sousednosti a počty sledů

Neuropočítače. podnět. vnímání (senzory)

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Regresní a korelační analýza

Jazyk matematiky Matematická logika Množinové operace Zobrazení Rozšířená číslená osa

1 Topologie roviny a prostoru

Modelování na burze cenných papírů metodami umělé inteligence

Vytěžování znalostí z dat

kde je dostupný ve formě vhodné pro tisk i ve formě vhodné pro prohlížení na obrazovce a z adresy

Skalár- veličina určená jedním číselným údajem čas, hmotnost (porovnej životní úroveň, hospodaření firmy, naše poloha podle GPS )

Skalární součin je nástroj, jak měřit velikost vektorů a úhly mezi vektory v reálných a komplexních vektorových prostorech.

4. Lineární nerovnice a jejich soustavy

FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ. Matematika 3. RNDr. Břetislav Fajmon, PhD. Autoři textu:

BAKALÁŘSKÁ PRÁCE. Numerické metody jednorozměrné minimalizace

TGH02 - teorie grafů, základní pojmy

2 Spojité modely rozhodování

LBP, HoG Ing. Marek Hrúz Ph.D. Plzeň Katedra kybernetiky 29. října 2015

Cvičení z Lineární algebry 1

Kapacita. Gaussův zákon elektrostatiky

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

TGH02 - teorie grafů, základní pojmy

Učební texty k státní bakalářské zkoušce Matematika Matice. študenti MFF 15. augusta 2008

1. Úvod do genetických algoritmů (GA)

A0M15EZS Elektrické zdroje a soustavy ZS 2011/2012 cvičení 1. Jednotková matice na hlavní diagonále jsou jedničky, všude jinde nuly

GRAFY A GRAFOVÉ ALGORITMY

Učební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014

a jiné elektronické přístroje včetně mobilů. Pracujte samostatně. Povolen je 1 list A4 vlastnoručně psaných poznámek k předmětu...

OBECNOSTI KONVERGENCE V R N

TGH02 - teorie grafů, základní pojmy

(Auto)korelační funkce Statistické vyhodnocování exp. dat M. Čada ~ cada

Téma je podrobně zpracováno ve skriptech [1], kapitola

KOMPLEXNÍ ČÍSLA INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ. Tento projekt je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Euklidovský prostor. Funkce dvou proměnných: základní pojmy, limita a spojitost.

Přijímací zkouška - matematika

3. Třídy P a NP. Model výpočtu: Turingův stroj Rozhodovací problémy: třídy P a NP Optimalizační problémy: třídy PO a NPO MI-PAA

ELEKTŘINA A MAGNETIZMUS

Matice. Předpokládejme, že A = (a ij ) je matice typu m n: diagonálou jsou rovny nule.

6. T e s t o v á n í h y p o t é z

3. Vícevrstvé dopředné sítě

1 Soustavy lineárních rovnic

Matematická analýza III.

Grafická data jsou u 2D vektorové grafiky uložena ve voxelech NEPRAVDA Grafická data jsou u rastrové grafiky uložena v pixelech PRAVDA Grafická data

6. ANALYTICKÁ GEOMETRIE

1/10. Kapitola 12: Soustavy lineárních algebraických rovnic

Soustavy lineárních rovnic

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Obsah. Lineární rovnice. Definice 7.9. a i x i = a 1 x a n x n = b,

i=1 Přímka a úsečka. Body, které leží na přímce procházející body a a b můžeme zapsat pomocí parametrické rovnice

1. přednáška 1. října Kapitola 1. Metrické prostory.

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2015

ŠROUBOVÉ SPOJE VÝKLAD

Návody k domácí části I. kola kategorie A

a m1 a m2 a mn zobrazení. Operaci násobení u matic budeme definovat jiným způsobem.

INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ. Modernizace studijního programu Matematika na PřF Univerzity Palackého v Olomouci CZ.1.07/2.2.00/28.

LDF MENDELU. Simona Fišnarová (MENDELU) Základy lineárního programování VMAT, IMT 1 / 25

10. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo

Skalární součin dovoluje zavedení metriky v afinním bodovém prostoru, tj. umožňuje nám určovat vzdálenosti, odchylky, obsahy a objemy.

FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

Neuronové sítě Učení bipolárního perceptronu

předmětu MATEMATIKA B 1

1 Báze a dimenze vektorového prostoru 1

Katedra aplikované matematiky FEI VŠB Technická univerzita Ostrava

Lineární algebra. Soustavy lineárních rovnic

ALGEBRA. Téma 5: Vektorové prostory

I. STEJNOSMĚ RNÉ OBVODY

Několik poznámek na téma lineární algebry pro studenty fyzikální chemie

Algoritmizace prostorových úloh

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2016

Rovnice. RNDr. Yvetta Bartáková. Gymnázium, SOŠ a VOŠ Ledeč nad Sázavou

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016

Základy matematiky kombinované studium /06

příkladů do cvičení. V textu se objeví i pár detailů, které jsem nestihl (na které jsem zapomněl) a(b u) = (ab) u, u + ( u) = 0 = ( u) + u.

p 2 q , tj. 2q 2 = p 2. Tedy p 2 je sudé číslo, což ale znamená, že

analytické geometrie v prostoru s počátkem 18. stol.

Bayesovská klasifikace digitálních obrazů

Laboratorní úloha č. 4 MĚŘENÍ STATICKÝCH A DYNAMICKÝCH VLASTNOSTÍ PNEUMATICKÝCH A ODPOROVÝCH TEPLOMĚRŮ

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2014

Gymnázium, Brno. Matice. Závěrečná maturitní práce. Jakub Juránek 4.A Školní rok 2010/11

Princip gradientních optimalizačních metod

PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti

fakulty MENDELU v Brně (LDF) s ohledem na disciplíny společného základu (reg. č. CZ.1.07/2.2.00/28.

Západočeská univerzita v Plzni. Fakulta aplikovaných věd Katedra matematiky. Geometrie pro FST 1. Pomocný učební text

III. Diferenciál funkce a tečná rovina 8. Diferenciál funkce. Přírůstek funkce. a = (x 0, y 0 ), h = (h 1, h 2 ).

Matematika I Reálná funkce jedné promìnné

2. Matice, soustavy lineárních rovnic

Prognóza poruchovosti vodovodních řadů pomocí aplikace Poissonova rozdělení náhodné veličiny

zejména Dijkstrův algoritmus pro hledání minimální cesty a hladový algoritmus pro hledání minimální kostry.

1 Linearní prostory nad komplexními čísly

Vedení tepla v MKP. Konstantní tepelné toky. Analogické úlohám statiky v mechanice kontinua

13. Lineární procesy

Tlumené kmitání tělesa zavěšeného na pružině

Matice. Přednáška MATEMATIKA č. 2. Jiří Neubauer. Katedra ekonometrie FEM UO Brno kancelář 69a, tel

Emergence chování robotických agentů: neuroevoluce

NEXIS 32 rel Generátor fází výstavby TDA mikro

Linearní algebra příklady

Základní pojmy teorie grafů [Graph theory]

Transkript:

2. RBF neuronové sítě Kapitola pojednává o neuronových sítích typu RBF. V kapitole je popsána základní struktura tohoto typu neuronové sítě. Poté následuje definice a charakteristika jednotlivých radiálně bazických funkcí, které slouží jako aktivační funkce neuronů. Důraz je kladen i na princip učení tohoto typu neuronové sítě, jež je odlišný od vícevrstvých perceptronových sítí. 2.1. Základní pojmy Normou (ǁ.ǁ) nazveme zobrazení z vektorového prostoru V na splňující: ǁxǁ = 0 x = 0. Pro všechna x, y ϵ V platí: ǁx+yǁ ǁxǁ + ǁyǁ. Pro každé x ϵ V a reálné číslo k platí, že ǁk*xǁ = k *ǁxǁ. [14] Metrikou nazveme zobrazení ρ z množiny M 2 na : ρ(x,y) = 0 x = y. Pro všechny x, y ϵ M platí symetrie, tedy ρ(x,y) =ρ(y,x). Pro všechny x, y, z ϵ M platí trojúhelníková nerovnost, tedy ρ(x,z) ρ(x,y) + ρ(y,z).[14] Metriku lze definovat pomocí normy ρ(x,y) = ǁx - yǁ.[14] Graf G lze definovat jako uspořádanou dvojici (V,E), kde V je neprázdná množina vrcholů (vertex) a E množina dvoubodových podmnožin reprezentující hrany (edge). Pokud je graf orientovaný, potom množina E obsahuje uspořádané dvojice ve tvaru (x,y). Hrana e = (x,y) začíná v uzlu x a končí v uzlu y.[17] Neuronovou síť lze definovat jako orientovaný graf G=(V,E), kde množina vrcholů (V) reprezentuje neurony a množina hran (E) jejich vzájemné propojení nazývané synapse. Množina V je rozdělena na disjunktní podmnožiny reprezentující jednotlivé vrstvy. Základním typem neuronové sítě je vícevrstvá perceptronová síť (Multi-Layer Perceptron, MLP). [15][18] 16

Učení neuronové sítě je proces adaptace synaptických vah. Při učení s učitelem je pro vstupní data znám optimální výstup. Ten je porovnán s výstupem neuronové sítě a pomocí zpětné vazby je provedena úprava synaptických vah.[11] 2.2. Radiálně bazické funkce Radiálně bazické funkce jsou spojovány s teorií vícerozměrné interpolace. Obecně jsou definovány vztahem (2.1) kde φ reprezentuje použitou, zpravidla nelineární funkci, c je takzvané centrum neuronu a R metrika sloužící k určení vzdálenosti mezi vstupem x a centrem c. Obecně může být R definováno libovolnou normou ǁ.ǁ [11][22] ( ) (( ) ( )). (2.1) Níže jsou popsány tři nejčastěji používané radiálně bazické funkce. Symbol r značí metriku ǁx - cǁ. Nejčastěji používanou metrikou je Euklidovskou vzdálenost definovaná vztahem (2.2) [11][14] ( ) ( ). (2.2) Gaussova funkce je definována rovnicí ve tvaru ( ) ( ). (2.3) Na obr. 2 je zobrazen průběh Gaussovy funkce pro dvě proměnné x 1 a x 2 se středy v hodnotě 0,5 a poloměrem σ = 0,5 a 0,1. Zatímco střed určuje pozici v prostoru, poloměr σ ovlivňuje tvar funkce. Určuje také hraniční vzdálenost, od které budou hodnoty funkce blízké či rovny nule. Čím blíže je vstupní vektor X středu, tím vyšší bude hodnota výstupní proměnné ϕ. Gaussova funkce je pro rostoucí hodnotu r, tedy vzdálenost od středu, klesající do nuly. Obor hodnot je uzavřený interval od nuly do jedné.[11] 17

Obr. 2: Průběh Gaussovy funkce pro dvě různá nastavení poloměru Zdroj: Vlastní zpracování Multikvadratická funkce je na rozdíl od zbylých dvou funkcí jako jediná rostoucí se vzdáleností od centra. Zdola je omezena nulou a se vzdáleností od centra roste do nekonečna. Parametr k určuje strmost průběhu funkce. Průběh multikvadratické funkce pro dva různé parametry k zobrazuje obr. 3. Tvar funkce je [11] ( ) ( ). (2.4) Obr. 3: Průběh multikvadratické funkce pro k =0,5 a 0,1 Zdroj: Vlastní zpracování 18

Inverzní multikvadratická funkce je definována vztahem (2.5). Hodnota funkce klesá se vzdáleností od středu a je omezena zdola nulou. Parametr k ovlivňuje nejen tvar funkce, ale i maximální hodnotu, které funkce dosahuje ve svém vrcholu, viz obr. 4. Inverzní multikvadratická funkce je definována předpisem [11] ( ) ( ). (2.5) Obr. 4: Průběh inverzní multikvadratické funkce pro k =0,5 a 0,1 Zdroj: Vlastní zpracování Parametr σ Gaussovy funkce je nazýván poloměr. Multikvadratická ani inverzní multikvadratická funkce nemají poloměr, ale parametr k, jenž ovlivňuje strmost a hraniční hodnoty funkce. Při zakreslení vrstevnic ale tyto parametry ovlivňují míru ohodnocení vzhledem ke vzdálenosti ke středu. Dále v textu je parametr k i σ označen jako střed radiálně bazické funkce. 2.3. Struktura RBF neuronové sítě RBF neuronové sítě typu využívají mírně odlišnou strukturu oproti MLP. Jako aktivační funkci neuronu využívají radiálně bazické funkce, ve většině případů obsahují jen jednu skrytou vrstvu a učí se s učitelem. Každý neuron je vždy propojen se všemi prvky vrstvy předchozí i následující. S výjimkou poslední vrstvy se zde nevyužívají váhy synapsí. Do všech neuronů v dané vrstvě vždy putuje stejný signál a právě nastavení centra neuronu určuje, jak bude vyhodnocen. [18] 19

F(x) Výstupní vrstva w 1 w j w m...... h 1 (x) h j (x) h m(x) Skrytá vrstva...... x 1 x i x n Vstupní vrstva Obr. 5: Struktura neuronové sítě typu RBF Zdroj: Vypracováno podle [22] RBF neuronová síť se skládá, ze vstupní vrstvy, alespoň jedné skryté vrstvy a vrstvy výstupní. Dále budeme uvažovat neuronovou síť s jednou skrytou vrstvou tvořenou m neurony, viz obr. 5. Na vstup neuronové sítě jsou přiváděny hodnoty veličiny X. Ty jsou pomocí synapsí distribuovány do všech neuronů skryté vrstvy. Zde jsou transformovány pomocí radiálně bazických funkcí. Každý neuron má nastaven vlastní střed či středy (c j ) a poloměr neuronu (r j ). Výstupem z j-tého neuronu skryté vrstvy je hodnota h j (x). Synapse mezi skrytou a výstupní vrstvou jsou ohodnoceny pomocí lineárních vah (w j ). Výstup neuronové sítě F(x) lze vypočítat jako lineární kombinaci vah a výstupu ze skryté vrstvy podle vztahu [18] ( ) ( ) ( ) (2.6) 2.4. Učení RBF neuronové sítě Pro neuronovou síť typu RBF, u níž jsou známá centra radiálně bazických funkcí (c i ) a jejich poloměry (r i ) spočívá učení ve stanovení lineárních vah (w i ) mezi skrytou a výstupní vrstvou. Jedním ze způsobů, jak určit parametry c i a r i, se zabývá kapitola 3. 20

Data (X), reprezentující nezávislé proměnné, jsou přivedená na vstup neuronové sítě a lze je popsat maticí o p řádcích a n sloupcích, kde p,n > 0. Nechť existuje neuronová síť typu RBF s n vstupy, jedním výstupem a m neurony v jediné skryté vrstvě jako je tomu na obr. 5. Dále existuje vektor vstupu (2.7) a jemu odpovídající hodnota výstupu y i. Závislá proměnná y i reprezentuje ideální hodnotu, které by měla neuronová síť pro daný vstup x i dosáhnout. Jedná se tedy o učení s učitelem. Vektor je definován [ ]. (2.7) Poté lze definovat vektor [22] [ ( ) ( ) ( ) ]. (2.8) Vektor reprezentuje výstupy neuronů skryté vrstvy RBF neuronové sítě, pokud je na vstup přiveden vstupní vektor. Vektory h i (2.8) tvoří jednotlivé řádky matice [11] [22]. (2.9) [ ] Stejným způsobem je sestaven i výstupní vektor (2.10), kde hodnota y i reprezentuje ideální hodnotu pro vstupní hodnoty [11] [ ]. (2.10) 21

vrstvou [11] Vektor lineárních vah reprezentuje synaptické váhy mezi skrytou a výstupní [ ]. (2.11) Výstup neuronové sítě je lineární kombinací matice H (2.9) a vektoru lineárních vah (2.11). Řešený problém (2.6) lze zapsat rovnicí [11] [ ] [ ]. (2.12) [ ] Soustavu (2.12) lze přepsat do zjednodušeného tvaru. (2.13) Vzniká soustava p rovnic o m neznámým, kde m<p, Známé jsou hodnoty matice H a vektoru. Neznámé jsou hodnoty lineárních vah w i. Pro jejich výpočet se využívá metoda nejmenších čtverců [22] ( ). (2.14) Použití metody nejmenších čtverců je velkou výhodou RBF neuronových sítí oproti MLP, pro jejichž optimalizaci je nutné použít iterativní postupy. Soustava (2.14) má řešení jen pokud jsou vektory matice H lineárně nezávislé. V jiném případě není možné vytvořit inverzní matici (H T H) -1 a tedy vypočítat vektor. [22] Poznámka: Při provádění experimentů s učením neuronové sítě, nebylo u 150 z celkových 156 271 jedinců možno vypočítat inverzní matici. Toto číslo odpovídá asi 0,1%. Jednu generaci tvořilo 20 jedinců. Z každé třetí generace tedy průměrně odpadne 1 jedinec. Snižující populace omezuje možnosti vývoje a přechodu na nové optimum. Proto byla do genetického algoritmu přidána operace doplnění o chybějící jedince. 22