Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Podobné dokumenty
Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Neuronové sítě Ladislav Horký Karel Břinda

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Vytěžování znalostí z dat

Umělé neuronové sítě

Algoritmy a struktury neuropočítačů ASN - P1

Rosenblattův perceptron

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Úvod do optimalizace, metody hladké optimalizace

8-9. Pravděpodobnostní rozhodování a predikce. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

NG C Implementace plně rekurentní

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Trénování sítě pomocí učení s učitelem

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

3. Vícevrstvé dopředné sítě

Kybernetika a umělá inteligence, cvičení 10/11

StatSoft Úvod do neuronových sítí

Využití neuronové sítě pro identifikaci realného systému

Neuropočítače. podnět. vnímání (senzory)

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

Neuronové sítě v DPZ

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Toolbox pro neuronové sítě pro prostředí Mathematica

Obr. 1 Biologický neuron

ZÁPADOČESKÁ UNIVERZITA V PLZNI FAKULTA ELEKTROTECHNICKÁ KATEDRA TECHNOLOGIÍ A MĚŘENÍ BAKALÁŘSKÁ PRÁCE

VYUŽITÍ UMĚLÉ NEURONOVÉ SÍTĚ PRO EMPIRICKÝ MODEL ŠÍŘENÍ SIGNÁLU

PV021: Neuronové sítě. Tomáš Brázdil

NEURONOVÉ SÍTĚ A EVOLUČNÍ ALGORITMY NEURAL NETWORKS AND EVOLUTIONARY ALGORITHMS

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Lineární diskriminační funkce. Perceptronový algoritmus.

Modelové řešení revitalizace průmyslových regionů a území po těžbě uhlí na příkladu Podkrušnohoří

IBM SPSS Neural Networks

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

Neuronové sítě (11. přednáška)

Umělá inteligence a rozpoznávání

Moderní systémy pro získávání znalostí z informací a dat

Václav Matoušek KIV. Umělá inteligence a rozpoznávání. Václav Matoušek / KIV

Preceptron přednáška ze dne

5. Umělé neuronové sítě. Neuronové sítě

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Lineární klasifikátory

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

Pokročilé metody učení neuronových sítí. Tomáš Řehořek

Emergence chování robotických agentů: neuroevoluce

METODIKA ZPRACOVÁNÍ EKONOMICKÝCH ČASOVÝCH ŘAD S VYUŽITÍM SIMULÁTORŮ NEURONOVÝCH SÍTÍ

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Support Vector Machines (jemný úvod)

Neuronové sítě Učení bipolárního perceptronu

Strojové učení Marta Vomlelová

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Technická fakulta. Katedra technologických zařízení staveb. Využití neuronových sítí pro integraci PZTS do inteligentních budov.

Zpracování biologických signálů umělými neuronovými sítěmi

Úloha - rozpoznávání číslic

Neuronové časové řady (ANN-TS)

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Framework pro neuronovou sít Flexible Neural Tree Flexible Neural Tree Framework

Přírodou inspirované metody umělé inteligence

VYUŽITÍ NEURONOVÝCH SÍTÍ V DIAGNOSTICE

PREDIKCE POČTU UCHAZEČŮ O STUDIUM S VYUŽITÍM NEURONOVÝCH SÍTÍ

1 Neuronové sítě - jednotlivý neuron

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

APLIKACE NEURONOVÝCH SÍTÍ VE ZPRACOVÁNÍ OBRAZU

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY

K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder

FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ ÚSTAV TELEKOMUNIKACÍ

FAKULTA INFORMAČNÍCH TECHNOLOGIÍ

Přednáška 13 Redukce dimenzionality

Státnice odborné č. 20

Rozdělování dat do trénovacích a testovacích množin

NEURONOVÉ SÍTĚ EVA VOLNÁ CZ.1.07/2.2.00/

Algoritmy a struktury neuropočítačů ASN P3

Inteligentní systémy a neuronové sítě

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

LDA, logistická regrese

2. RBF neuronové sítě

KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ

Jednotlivé historické modely neuronových sítí

MODELOVÁNÍ BONITY OBCÍ POMOCÍ KOHONENOVÝCH SAMOORGANIZUJÍCÍCH SE MAP A LVQ NEURONOVÝCH SÍTÍ

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

PB016 Úvod do umělé inteligence ZÁKLADY Z TEORIE A PRAXE. David Kabáth

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Národní informační středisko pro podporu kvality

Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

ADAPTACE PARAMETRU SIMULAČNÍHO MODELU ASYNCHRONNÍHO STROJE PARAMETR ADAPTATION IN SIMULATION MODEL OF THE ASYNCHRONOUS MACHINE

Využití metod strojového učení v bioinformatice David Hoksza

Algoritmy a struktury neuropočítačů ASN - P11

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

ANALÝZA A KLASIFIKACE DAT

Metody umělé inteligence a jejich využití při predikci

Numerické metody optimalizace - úvod

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

Transkript:

Neuronové sítě V prezentaci jsou použity podklady zřady zdrojů (Marcel Jiřina, Dan Novák, Jean- Christophe Prévotet, Petr Berka, Jana Tučková a další)

Neuronové sítě Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi: extrahovat a reprezentovat závislosti v datech, které nejsou zřejmé řešit silně nelineární úlohy učit se zevšeobecňovat Využívají se pro klasifikaci, regresi a predikci časových řad

Biologická inspirace

Perceptron - model neuronu jako základní výpočetní jednotky neuronových sítí. Perceptron využívá prostý lineární model! x w x 0 = w 0 = θ x 0 se používá pro označení požadované hodnoty x 2 w 2 ξ y = f ( ) ξ w n x n n i i i i i= i= 0 n ξ = w x θ = w x f ( ξ ) = + e λξ

Principy použité při modelování neuronu obsahuje několik vstupů, které jsou ohodnoceny vahami a jeden výstup v neuronu pobíhají dva procesy: výpočet (post-synaptického) potenciálu n ξ = w x θ = i i i i i= i= 0 n w x výpočet hodnoty výstupu pomocí (přenovové) aktivační funkce, nejčastěji tzv. sigmoidy f ( ξ ) = + e λξ

Příklady aktivačních funkcí 2 Logistická (sigmoida).5 20 8 6 4 2 0 8 y = + exp( x) 6 0.5 4 2 0 0 2 4 6 8 0 2 4 6 8 20 0-0.5 - -.5-2 -0-8 -6-4 -2 0 2 4 6 8 0

Sigmoidní přenosová funkce: S ( ξ ) = + exp ( λξ ) n = S w x i i i= z Θ Přenos neuronové sítě je určen: topologií sítě počet vrstev a jejich neuronů parametry sítě Parametry neuronové sítě: - váhové koeficienty vazeb neuronů w jk < 0, > - prahové hodnoty Θ - volba a parametry přenosové funkce S, λ

Příklady aktivačních funkcí 20 8 6 4 2 0 8 6 Lineární y = x 4 2 0 0 2 4 6 8 0 2 4 6 8 20 2.5 0.5 0-0.5 - -.5 Logistická (sigmoida) y = + exp( x) -2-0 -8-6 -4-2 0 2 4 6 8 0 2.5 0.5 0-0.5 - -.5 Hyperbolický tangens exp( x) exp( x) y = exp( x) + exp( x) -2-0 -8-6 -4-2 0 2 4 6 8 0

Procedura učení optimalizační gradientní algoritmus Back-Propagation (BP) Strategie optimalizace pro K trénovacích příkladů [ x j, y j ] : E n K = 2 j= 0 * 2 ( y y ) min j kde y j * je výstup perceptr. j Adaptace váhy E n w( t + ) = w(t) + µ µ 0, w(t) w(t) Pro perceptron je y* = w. x, a tedy = K E n 0 * ( y y ) ( x ) j= j j j Při inkrementální (stochastické) aproximaci i i w ( t + ) = w(t) + µ.( y y ). x i

3 fáze učení jednoduchého perceptronu - A: je zvolen náhodně vektor vah w a k němu určena kolmá rozhodovací hranice (p), zjišťujeme výstup pro bod - leží v oblasti s výstupem, i když má ležet v oblasti s výstupem 0 B: odečteme vektor bodu od vektoru vah w a získáme nový vektor vah w 2 a k němu příslušnou rozhodovací hranici znázorněnou přímkou r, bod 2 je umístěn správně, bodu 3 přiřadí síť hodnotu i když má dostat výstup 0 C: odečteme vektor bodu 3 od vektoru vah w 2 a získáme nový vektor vah w 3 nyní je již problém vyřešen - všem bodům je přiřazena odpovídající hodnota výstupu, řešením problému je tedy vektor vah w 3 s příslušnou rozhodovací hranicí q.

Perceptron a jeho omezení Jednovrstvý perceptron se může naučit řešit jen problémy, které jsou lineárně separabilní. Booleovské funkce AND i OR jsou lineárně separabilní, avšak booleovská funkce XOR (a obecně problém parity) tuto vlastnost nemá. y y Boolean AND x AND y x Boolean XOR x XOR y x

Omezení perceptronu Perceptron pracuje s lineární hranicí w T p + b = 0 Příklady problémů, které nejsou lineárně separabilní

Jak překonat lin.omezení perceptronu? XOR problém by bylo možné řešit s použitím 2 lineárních hranic: Je řešení v použití více vrstev neuronů? Nechť každý neuron v jedné vrstvě implementuje svou lineární hranici a nechť další vrstva obě rozhodnutí kombinuje. Jak má v takovém případě probíhat učení pro jednotlivé neurony? Vícevrstvé sítě používají pro své učení algoritmus zpětné propagace chyby backpropagation learning algorithm

Struktura sítě pro větší výpočetní sílu se neurony uspořádávají do sítí neuronů

Vícevrstvá perceptonová síť 0.9 0.8 0.7 0.6 x 2 0.5 0.4 0.3 0.2 0. 0 0 0.2 0.4 0.6 0.8 x

Vícevrstvá perceptonová síť w 0 x w w 2 y w 3 w 03 w 2 w 02 w 23 y resp. d x 2 w 22 y 2

Vícevrstvá perceptonová síť Počet vrstev výstup 2 3 vstupy A B A B A B BA A B A B A

Příklady různých problémů, které nejsou lineárně separabilní Structure Types of Decision Regions Exclusive-OR Problem Classes with Meshed regions Most General Region Shapes Single-Layer Half Plane Bounded By Hyperplane A B B A B A Two-Layer Convex Open Or Closed Regions A B B A B A Three-Layer Abitrary (Complexity Limited by No. of Nodes) A B B A B A Neural Networks An Introduction Dr. Andrew Hunter

Vícevrstvá perceptonová síť Věta (Kolmogorov, 957): Nechť n > je přirozené číslo a f je spojitá reálná funkce. Potom lze tuto funkci reprezentovat vztahem f ( x 2n+ n =, x2, K, x n ) ϕ j ψ ij ( xi ) j= i= kde ϕ a ψ jsou spojité funkce jedné proměnné. j ij TEDY libovolnou rozumnou, tj. spojitou, funkci lze zapsat (reprezentovat) s pomocí do sebe vnořených funkcí jediné proměnné.

Kolmogorovův teorém Přitom pro danou funkci f jsou specifické pouze funkce Ψ i, zatímco funkce φ i jsou pro dané n a f nezávislé. Hecht-Nielsen ukázal, že tuto univerzální vlastnost funkcí φ pg lze využít též pro reprezentaci funkcí s hodnotami v prostoru vyšších rozměrů. Kolmogorovův teorém doplňovali v pozdějších letech někteří další autoři, např. Lorenz, který dokázal, že je možno vystačit pouze s jedinou funkcí Ψ D.A. Sprecher, který našel podmínky pro to, aby funkce Ψ q měly tvar λ p φ p, kde λ p jsou konstanty. Důsledek aplikace Kolmogorovovy věty na problematiku neuronových sítí: K tomu, aby bylo transformační funkcí T neuronové sítě možno aproximovat libovolnou funkci f, postačí, aby příslušná neuronová síť měla alespoň tři vrstvy o odpovídajících počtech neuronů (výkonných prvků) v jednotlivých vrstvách. Funkci T lze tedy implementovat jako transformační funkci neuronové sítě, která má nejméně tři vrstvy s dopřednou vzájemnou vazbou + vstupní distribuční vrstvu.

Typy neuronových sítí Existuje celá řada neuronových sítí, které se liší architekturou a použitými stavebními prvky (perceptron, neuron s aktivační funkcí typu radial base,..),např. Vícevrstvá perceptonová síť (MLP) Hopfieldova síť Kohonenovy samoorganizující se mapy (SOM) Síť RBF (radial bases functions)... Každý typ se hodí pro jinou třídu úloh Základními úlohami neuronových sítí jsou klasifikace a regrese (aproximace) Podle přítomnosti učitele můžeme neuronové sítě dělit na sítě s učitelem a bez učitele

Proces učení neuronových sítí Pro učení (trénování NS) je třeba mít dostatek reprezentativních příkladů Trénovací, výběrová, testovací množina Na začátku učení bývají váhy nejčastěji nastaveny na náhodná čísla Proces učení se snaží minimalizovat odchylku (chybu) mezi skutečným (aktuálním) a požadovaným výstupem Každá neuronová síť má jiný algoritmus učení, vesměs jsou to ale iterační procesy

Backpropagation algoritmus Inicializuj váhy sítě malými náhod. čísly (např. z intervalu (-0,05, 0,05) ) Cyklus opakovaný až do splnění kritéria pro zastavení Pro každý příklad [x,y] z trénovacích dat. Spočítej výstup out u pro každý neuron u v síti 2. Pro každý neuron v ve výstupní vrstvě spočítej chybu Err v = out v. ( - out v ).(y v - out v ) 3. Pro každý neuron s ve skryté vrstvě spočítej chybu Err s = out s. ( - out s ). w. Err ( s, v v ) v vystup 4. Pro každou vazbu vedoucí od neuronu j do neuronu k modifikuj váhu vazby w j,k = w j,k + w j,k, kde w j,k = η Err k x j,k Obvyklé kritérium pro zastavení: Chyba sítě na validačních datech je menší než požadovaná hodnota.

Návrh neuronové sítě Pro řešení každé úlohy musí být navržena jedinečná neuronová síť Otázka vhodného výběru sítě Výběr struktury sítě, tj. počet vstupů, výstupů, vrstev, skrytých neuronů, typ aktivačních funkcí, atd. Výběr trénovacího algoritmu Typické problémy over-sizing, over-learning (over-fitting)

Vícevrstvá perceptonová síť Nejrozšířenější a nejpoužívanější síť Jak pro klasifikaci tak pro regresi (a tedy i predikci spojitých funkcí, např. časových řad) Síť s učitelem Aktivační funkcí je nejčastěji sigmoida Otázka výběru počtu vrstev a počtu neuronů Kromě základního algoritmu backpropagation existuje řada sofistikovaných metod učení, např. metoda sdružených gradientů, Levenbergova-Marquardtova metoda atd.

Vícevrstvá perceptonová síť K nevýhodám sítě patří obtížné řešení problému lokálních minim a poměrně dlouhá doba učení Pro zlepšení práce se používá řada metod, např. změna architektury (doplnění dalších neuronů,..), využití momentu, šumu,

Síť RBF * Radial Basis Function (RBF), síť radiálních jednotek Pevný počet vrstev Dva typy neuronů: radiální a perceptronového typu (nejčastěji lineární) Váhy v první vrstvě jsou nastavovány pevně na začátku učení, ve druhé vrstvě se postupuje podobně jako u vícevrstvé perceptronové sítě nebo přímo regresí

Síť RBF * Postsynaptický potenciál Aktivační funkce ξ = x r c r b Φ ( ξ ) = e ξ 2 Adaptace vah y k = w h h 0 k + w jkφ j ( ξ) = w jkφ j ( ξ) j= j= 0

Kohonenova síť * Kohonenova síť (SOM self organizing map, SOFM) Bez učitele, provádí proto pouze analýzu vstupních dat, přesněji druh shlukové analýzy Obsahuje jedinou vrstvu radiálních neuronů, které mohou být uspořádaný to tzv. mřížky Síť je možné rozšířit tak, aby byla schopna klasifikace (Learning Vector Quantization LVQ)

Kohonenova síť * Adaptační funkce h(v) h( v) 0 t v

Kohonenova síť * Struktura Kohonenovy sítě kompetiční vrstva 2 3 m váhy w ij vstupy x x 2 x 3 x n d j = m 2 ( xi wij ) d * = min( d j ) j i= j

Kohonenova síť * topologické zobrazení topologická mřížka neuronů (váhové vektory) prostor vzorů Proces učení (adaptace vah)

Kohonenova síť * Vzdálenosti vzoru k neuronům Výběr nejbližšího neuronu d j = m ( x ) i wij i= 2 Adaptace vah d j * = min j ( d ) j w ij ( t + ) = w ( t) + η( t) h( v, t) x ( t) w ( t) ij ( ) i ij

Kohonenova síť * poslední vrstva první vrstva vstupní vrstva váhové vektory sestavení příznakového vektoru vstupní snímek

Hopfieldova síť * Navržena J. Hopfieldem v roce 982 Autoasociativní paměť Pracuje s bipolárními (binárními) hodotami vstupů/výstupů Spojitá varianta Hopfieldovy sítě se používá pro řešení optimalizačních problémů

Softwarové prostředky pro NS Matlab Neural Network Toolbox Statistica Neural Networks 0 Performance is 0.00204974, Goal is 0.00.5 0 0 Training-Blue Goal-Black 0-0 -2 0.5 0 0-3 -0.5 0-4 0 200 400 600 800 000 200 400 600 800 2000 2000 Epochs - 0 2 3 4 5 6 7 8

History of Artificial Neural Networks (ANNs) Pre-940: von Hemholtz, Mach, Pavlov, etc. General theories of learning, vision, conditioning No specific mathematical models of neuron operation 940s: Hebb, McCulloch and Pitts Hebb: Explained mechanism for learning in biological neurons McCulloch and Pitts: First neural model 950s: Rosenblatt, Widrow and Hoff First practical networks (Perceptron and Adaline) and corresponding learning rules 960s: Minsky and Papert Demonstrated limitations of existing neural networks New learning algorithms not forthcoming, most research suspended 970s: Amari, Anderson, Fukushima, Grossberg, Kohonen Progress continues, although at a slower pace 980s: Grossberg, Hopfield, Kohonen, Rumelhart, etc. Important new developments cause a resurgence in the field (Backpropagation algorithm)

Literatura české učebnice Mařík V., Štěpánková O., Lažanský J. a kol.: Umělá inteligence 4. Academia, Praha, 2003. Šíma J., Neruda R.: Teoretické otázky neuronových sítí. Matfyzpress, Praha, 996. Tučková J.: Vybrané aplikace neuronových sítí při zpracování signálů, Nakladatelství ČVUT, Praha 2009 zahraniční učebnice Bishop C. M.: Neural Networks for Pattern Recognition. Oxford University Press, NewYork, 995. Fausett, L.: Fundamentals of Neural Networks. Prentice Hall, New York, 994. Hassoun M. H.: Fundamentals of Artificial Neural Networks. The MIT Press, Cambridge, Massachusetts, London, 995. Haykin, S.: Neural Networks: A Comprehensive Foundation. Macmillan Publishing, New York, 994. Rojas R.: Neural Networks: A Systematic Introduction. Springer-Verlag, Berlín, Heidelberg, New York, 996.