Neuronové sít. aneb to málo, co o nich vím. J. Doubravová. Seminá o seismologickém softwaru, Teorie Ukázka Webnet a výhledy

Podobné dokumenty
PV021: Neuronové sítě. Tomáš Brázdil

Vektor náhodných veli in - práce s více prom nnými

Skalární sou in. Úvod. Denice skalárního sou inu

Algoritmy a struktury neuropočítačů ASN - P1

Pravd podobnost a statistika - cvi ení. Simona Domesová místnost: RA310 (budova CPIT) web:

Umělé neuronové sítě

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

5. Umělé neuronové sítě. Neuronové sítě

P íklad 1 (Náhodná veli ina)

Neuronové sítě Ladislav Horký Karel Břinda

Neuropočítače. podnět. vnímání (senzory)

Typy umělých neuronových sítí

2. Ur íme sudost/lichost funkce a pr se íky s osami. 6. Na záv r na rtneme graf vy²et ované funkce. 8x. x 2 +4

1. (18 bod ) Náhodná veli ina X je po et rub p i 400 nezávislých hodech mincí. a) Pomocí ƒeby²evovy nerovnosti odhadn te pravd podobnost

Rovnice a nerovnice. Posloupnosti.

Neuronové sítě (11. přednáška)

Integrování jako opak derivování

VYUŽITÍ NEURONOVÝCH SÍTÍ PROSTŘEDÍ MATLAB K PREDIKCI HODNOT NÁKLADŮ PRO ELEKTRICKÉ OBLOUKOVÉ PECE

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

e²ení systém lineárních rovnic pomocí s ítací, dosazovací a srovnávací metody

Reálná ísla a posloupnosti Jan Malý

Derivování sloºené funkce

Soft Computing (SFC) 2014/2015 Demonstrace u ení sít RCE, Java aplikace

Rosenblattův perceptron

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Text m ºe být postupn upravován a dopl ován. Datum poslední úpravy najdete u odkazu na staºení souboru. Veronika Sobotíková

ízení Tvorba kritéria 2. prosince 2014

Vytěžování znalostí z dat

Pr b h funkce I. Obsah. Maxima a minima funkce

Obsah. Pouºité zna ení 1

brmiversity: Um lá inteligence a teoretická informatika

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

brmiversity: Um lá inteligence a teoretická informatika

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

PB016 Úvod do umělé inteligence ZÁKLADY Z TEORIE A PRAXE. David Kabáth

Limity funkcí v nevlastních bodech. Obsah

Kuželosečky a kvadriky ve škole i kolem

7. Stropní chlazení, Sálavé panely a pasy - 1. část

DIPLOMOVÁ PRÁCE. Extrakce znalostí pomocí vrstevnatých neuronových sítí

5. Aplikace diferenciálního a integrálního po tu v jedné dimenzi ZS 2017/18 1 / 32

Fyzikální praktikum 3

Výstupy Učivo Téma. Čas. Základní škola a mateřská škola Hať. Školní vzdělávací program. Průřezová témata, kontexty a přesahy,další poznámky

Statistika pro geografy. Rozd lení etností DEPARTMENT OF GEOGRAPHY

Magnetohydrodynamický pohon

se nazývá charakter grupy G. Dále budeme uvaºovat pouze kone né grupy G. Charaktery tvo í také grupu, s násobením denovaným

nazvu obecnou PDR pro neznámou funkci

Technická fakulta. Katedra technologických zařízení staveb. Využití neuronových sítí pro integraci PZTS do inteligentních budov.

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

na za átku se denuje náhodná veli ina

P íklady k prvnímu testu - Pravd podobnost

Aplikace pravd podobnostních model v kurzovém sázení

Algoritmizace a programování

NG C Implementace plně rekurentní

Základní praktikum laserové techniky

Laserové skenování principy

Vektory. Vektorové veli iny

T i hlavní v ty pravd podobnosti

1 Spojitý model. 1.1 Princip stochastického modelu

Binární operace. Úvod. Pomocný text

e²ení 1. série Úvodní gulá² autor: Kolektiv org

Státní maturita 2011 Maturitní testy a zadání jaro 2011 Matematika: didaktický test - základní úrove obtíºnosti MAMZD11C0T02 e²ené p íklady

1. Spo t te limity (m ºete pouºívat l'hospitalovo pravidlo) x cotg x 1. c) lim. g) lim e x 1. cos(x) =

SRF08 ultrazvukový dálkoměr

Strojní součásti, konstrukční prvky a spoje

ZÁPISKY Z ANALYTICKÉ GEOMETRIE 1 SOUŘADNICE, BODY

5.2.1 Matematika povinný předmět

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

brmiversity: Um lá inteligence a teoretická informatika

Státní maturita 2010 Maturitní generálka 2010 Matematika: didaktický test - základní úrove obtíºnosti MAGZD10C0T01 e²ené p íklady

Záludnosti velkých dimenzí

Výchovné a vzdělávací strategie pro rozvoj klíčových kompetencí žáků

OPTIMUM M A S C H I N E N - G E R M A N Y

Paralelní systémy. SIMD jeden tok instrukcí + více toků dat jedním programem je zpracováváno více různých souborů dat

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Modelování v elektrotechnice

TECHNICKÉ KRESLENÍ A CAD

Číslicová technika 3 učební texty (SPŠ Zlín) str.: - 1 -

Státnice odborné č. 19

Text m ºe být postupn upravován a dopl ován. Datum poslední úpravy najdete u odkazu na staºení souboru. Veronika Sobotíková

Neuronová síť. x 2 x 3. σ j. x 4. x 5. Menu: QCExpert Prediktivní metody

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Osvětlovací modely v počítačové grafice

Jevy, nezávislost, Bayesova v ta

Jednotlivé historické modely neuronových sítí

Semestrální práce z p edm tu URM (zadání), 2014/2015:

Úvod do optimalizace, metody hladké optimalizace

brmiversity: Um lá inteligence a teoretická informatika

Seminá e. Ing. Michal Valenta PhD. Databázové systémy BI-DBS ZS 2010/11, sem. 1-13

TECHNICKÁ UNIVERZITA V LIBERCI

2C Tisk-ePROJEKTY

48. Pro RC oscilátor na obrázku určete hodnotu R tak, aby kmitočet oscilací byl 200Hz

DYNAMICKÉ VÝPOČTY PROGRAMEM ESA PT

Matematika. Charakteristika vyučovacího předmětu. Výchovné a vzdělávací strategie pro rozvíjení klíčových kompetencí žáků

Testy pro více veli in

6. přednáška z předmětu GIS1 Souřadnicové systémy a transformace mezi nimi

( x ) 2 ( ) Další úlohy s kvadratickými funkcemi. Předpoklady: 2501, 2502

Teorie her. Klasikace. Pomocný text

Vlastnosti IIR filtrů:

Transkript:

aneb to málo, co o nich vím J. Doubravová Seminá o seismologickém softwaru, 2014 J. Doubravová

Outline 1 2 3 J. Doubravová

Outline 1 2 3 J. Doubravová

Tro²ka historie W. McCulloch, W. Pitts 1943 - matematický model jednoduchého neuronu, teoretická práce, parametry {-1,0,1} D. Hebb 1949 The Organization of Behavior - u ící pravidlo pro synapse neuron M. Minsky 1951 - první neuropo íta Snark, nebyl pouºit k e²ení praktických problém F. Rosenblat 1957 - perceptron = zobecn ní Pitts+Culloch neuronu s realnými parametry, u icí algoritmus, dokázal, ºe pro daná tréninková data nalezne odpovídající váhy, pokud e²ení existuje. Spole n s C. Wightmanem sestrojili první úsp ²ný neuropo íta Mark I Perceptron pro rozpoznávání obrazc. Znak promítali na sv telnou tabuli, odkud ho snimali 20x20 fotovodi i = 400 intenzit pixel J. Doubravová

Tro²ka historie B. Widrow (1960's) ADALINE adaptive linear element, rma na výrobu hardware pro neuropo íta e pak útlum - Minsky, Papert zdiskreditoval (XOR kauza) renesance 80. léta J. Hopeld ukázal souvislosti s fyzikálními modely magnetických materiál D. Rumelhart, G. Hinton, R. Williamse 1986 - u ící algoritmus - zp tné ²í ení chyb pro vícevrstvou sí. Aplikován T. Sejnowksim a C. Rosenbergem pro NETtalk - p evod psané angli tiny na mluvenou 1987 první IEEE International Conference on Neural Networks v San Diegu a pak uº jenom sluní ko, výzkumy, výuka, aplikace... J. Doubravová

Tro²ka biologie nervová soustava je interface mezi organismem a okolním prost edím, reaguje na podn ty jak z vn j²ku tak na vnit ní stavy systému senzory nazýváme receptory, reagují na r zné typy podn t (tepelné, sv telné, mechanické...) informace se ²í í pomocí síti neuron (zde dochází k ltraci a kompresi) k efektor m (svaly, ºlázy) celý proces je reex, reexy se ²í í po projek ních drahách do mozkové k ry - 6 oblastí = paralelní zpracování jednotlivých smysl neurony: jen v mozkové k e 13-15 mld. neuron, jeden m ºe být propojen aº s 5000 dal²ími J. Doubravová

Tro²ka biologie anatomie neuronu: soma (t lo), dendrity (vstupy), axon a axonální/synaptická zakon ení (výstupy, dotýkají se dendrit jiných neuron ) propojení dendritu a axonu = chemická synapse s r znou propustností, ma d líme je na excita ní (roz²i ují informaci) a inhibi ní (tlumicí) J. Doubravová

Tro²ka biologie p enos informace elektrický impuls, kdyº p ekro í na dendritech ur itý práh, neuron generuje elektrický impuls a ²í í tak informaci dál synaptická prospustnost se po kaºdém pr chodu signlu m ní, m ºe se i úpln preru²it (zapomeneme) nebo vytvo it synapse nová (u íme se) J. Doubravová

Outline 1 2 3 J. Doubravová

Formální neuron n reálných vstup x = dendrity, vstup x 0 = 1 váhy w = synaptické váhy (kladné excita ní, záporné inhibi ní), váha w 0 = h tzv. bias vnit ní potenciál neuronu ξ = n w i x i i=0 práhh J. Doubravová výstup je dán aktiva ní funkcí { 1, ξ 0 y = σ(ξ ) = 0, ξ < 0

Formální neuron n rozm rný euklidovský prostor x i sou adnice rovnice nadroviny w 0 + n w i x i = 0 i=1 jeden neuron tedy rozd luje prostor na dva poloprostory J. Doubravová

XOR problém jednoduchá logická funkce 2D prostor pro dvouvstupý XOR 1 neuron rozd lí rovinu p ímkou na dva poloprostory nelze vy e²it pot eba zapojit do sít J. Doubravová

Outline 1 2 3 J. Doubravová

Neuronová sí soustava formálních neuron, které jsou vzájemn propojeny výstup neuronu je obecn vstupem více neuron po et a propojení neuron = topologie sít (architektura sít ) vstupní (jako receptory), výstupní (jako efektory) a skryté neurony stavy v²ech neuron v síti = stav sít v²echny synaptické váhy = kongurace sít t i úrovn dynamiky sít : organiza ní (zm na topologie), aktivní (zm na stavu), adaptivní (zm na vah) = v nervové soustav se to d je najednou J. Doubravová

Dynamika organiza ní - d líme na cyklické (rekurentní) = existuje skupina (alespo jeden) neuron zapojená v cyklu, a acyklické (dop edné) acyklická lze vºdy uspo ádat do vrstev, kde kaºdý neuron jedné vrstvy propojíme s kaºdým neuronem v dal²í vrstv, chyb jící propojení formáln nahradíme w = 0 aktivní - po áte ní stav a zp sob zm ny v ase, obecn výpo et ve spojitém ase ale obvykle diskrétní funkce kaºdého neuronu - obvykle stejná pro v²echny, ale nemusí být jako v nervové soustav J. Doubravová

Aktiva ní funkce ostrá nelinearita { 1, ξ 0 σ(ξ ) = 0, ξ < 0 saturovaná lin. fce 1, ξ > 0 σ(ξ ) = ξ, 0 ξ 1 0, ξ < 0 standard sigmoid σ(ξ ) = 1 1+e ξ tanh σ(ξ ) = 1 e ξ 1+e ξ J. Doubravová

Adaptivní dynamika specikuje po ate ní stavy vah (nap. náhodn ) a jak se budou v ase m nit = u it optimalizace nelineárního problému - m ºe být asov náro né poºadavovanou fci denujeme tréninkovou mnoºinou - známe vstup a poºadovaný výstup = s u itelem (supervised learning) naopak samoorganizace (self-organizing map) nemá u itele a sama seskupí vstupní vektory do shluk na základ podobnosti J. Doubravová

Geometrická reprezentace víme, ºe jeden neuron rozd lí prostor na dva poloprostory odd lené nadrovinou budeme-li mít první vrstvu sít, kde kaºdý neuron takto rozd lí prostor, ve druhé vrstv m ºeme pomocí logických fcí AND a OR implementovat pr nik a sjednocení t chto oblastí p íkladem budiº problém XOR J. Doubravová

Outline 1 2 3 J. Doubravová

Sí perceptron n reálných vstup, m logických výstup, 1 vrstva, propojení kaºdý s kaºdým, ostrá nelinearita, funkce sít zadána tréninkovou mnoºinou J. Doubravová

Sí perceptron adaptace nemusí mít e²ení - viz XOR kontrabeispiel, nebo není fce = poºadujeme více e²ení pro stejný vstup adaptace probíhá v adapta ních cyklech, dle perceptronového pravidla, kde 0 < ε 1 je rychlost u ení ( asto jako u lidí, nap ed malá, pak p idáme na detailech) w t = ( ( ) ) w t 1 εx ji ji ki y j w t 1 j = 1,..., m,x k dkj i = 0,..., n velká závorka= rozdíl j-tého výstupu pro k-tý vzor a poºadovaného srávného výstupu = chyba { 1, 0, 1} Rosenblatt dokázal, ºe pokud e²ení existuje (lze odd lit nadrovinou), pak je nalezeno po kone ném po tu adapta ních krok = celkem k ni emu po ádnýmu, ale teoretický základ J. Doubravová

Vícevrstvá sí nejznám j²í typ s u ícím algoritmem zp tného ²í ení chyb - backpropagation zobecn ní sít perceptron - p idáme skryté vrstvy, aktiva ní funkce je tanh,sigmoida... = pot ebujeme ji v backpropagation diferencovat chyba vzhledem k tréninkové mnoºin (p vzor )E(w) = p k=1 E k (w) = 1 2 p k=1 j ( y j (w,x k ) d kj ) 2- tu chceme minimalizovat gradientová metoda w t ji = ε E w ji ( w t 1 ), takºe klasicky - m ºe být pomalé, najít lokální min. ne globální, pot ebujeme tu derivaci chybové funkce E w ji = p E k w ji k=1 = p E k y j y j ξ j ξ j w ji k=1 (nap. pro sigmoidu) J. Doubravová = p E k y j y j (1 y j ) y i k=1

Metoda backpropagation E k y j = y j d kj pro j je výstup pro skryté neurony potom E k y j E = k y r y r ξ r ξ r, kde r jsou w rj r neurony do kterých j-tý vstupuje nap. y r y r (1 y r ) w rj r takto odkonce spo teme tu derivaci (poslední skrytou vrstvu z výstupu, p edposlední z poslední skryté atd..) platí pro acyklickou sí omezen místo gradient sdruºené gradienty nebo newtonova metoda E k pro cyklické topologie = zbecn ná metoda rekurentní backpropagation J. Doubravová

MADALINE Multiple ADAptive LINear Element (Widrow, Ho) jako sí perceptron, aktiva ní funkce ale lineární y j = n w ji x i i=1 výstupy dávají vzdálenost od nadroviny w j0 + n w ji x i = 0 i=1 (není to vzdálenost ale je to v abs.h. lin. proporcionální) u ení nej ast ji backpropagation = lineární, dává paraboloidní chybovou funkci - nejsou problémy s lok. minimy Widrow+Ho LMS (Least mean square) - oprava po kaºdém tréninovém vzoru w t = ( ( ) ) w t 1 εx ji ji ki y j w t 1,x k dkj J. Doubravová

Sít s kaskádovou architekturou Fahlman, Lebiere (1990), ve skryté vrstv jsou výstupy odspoda nahoru p edávány jako vstupy neuron stejné vrstvy (v²ech) na za átku nedenujeme topologii skryté vrstvy, nap ed nau íme bez skryté vrstvy a kdyº uº se výsledek nezlep²uje, p idáme skrytou J. Doubravová

Sít s kaskádovou strukturou p idáme kandidáta p ipojíme jeho vstupy ale ne výstupy, u íme tak, ºe hledáme maximální korelaci mezi chybou sít a výstupem kandidáta Kdyº nau íme (adaptace vah je hotova, nezlep²uje se uº korelace), zapojíme do sít a celou sí znova adaptujeme = sloºitost sít se najde sama, u ení je velmi rychlé J. Doubravová

Outline 1 2 3 J. Doubravová

Asociativní sí Anderson - lineární asociativní sí = jako asociativní pam - vybavení na základ áste né informace autoasociativní - dopln ní informací, detail na základ zevrubné informace, heteroasociativní - dopln ní souvislostí formáln jako MADALINE ale bez bias vstupu jako w j0 = 0, geometricky ty nadroviny prochází nulou, maticov y = Wx adaptace podle Hebbova zákona (zase z biologie): synaptická váha mezi dv ma neurovy je dána sou inem jejich stav - ili pokud jsou oba aktivovány, vazba se je²t posiluje, jinak naopak zeslabuje w t = w t 1 d ji ji kj x ki pro v²echny tréninkové vzory, na konci je tedy w ji = p d kj x ki k=1 pokud jsou tréninkový vzory ortonormální, pak sí dob e asociuje - tedy máme-li vstup podobný n jakému vzoru, p i adí mu stejný výstup J. Doubravová

Hopeldova sí McCulloch, Pitts, pozd ji proáknul práv Hopeld na po átku je úplná cyklická topologie, kaºdý s kaºdým (ne sám se sebou) J. Doubravová

Hopeldova sí výstupy bipolární, celo íselné, +1,-1, adaptace podle Hebba w ji = p x kj x ki k=1 w ij = w ji neorientované spoje, ili m ºeme p ekreslit, aktivní dynamika = zvolíme bod a po ítáme výstup, paraleln nemusí fungovat fyzika - modely mg. materiál ve statistické fyzice J. Doubravová

Dal²í Boltzmann v stroj Sít se samoorganizací Spousta ²ílený teorie o sloºitosti sítí atd J. Doubravová

Úskalí p eu ení sít - nau íme ji detaily, nep esnosti m ení a chyby - musí z stat schopnost generalizace musíme vhodn zvolit topologii, a to se taky t ºko d lá...cit? J. Doubravová

Backpropagation J. Doubravová

Hopeld J. Doubravová

Kongurace sít SLRNN - single layer reccurent neural network (zobecn ní RTRNN Williams, Zipser 1989) - n které vstupy sít jsou zp t zavedené výstupy z p edchozího kroku a to s r zným zpoºd ním sí má pak pam - reaguje na p edchozí stavy vstupy - signál ve frekven ních pásmech (9x), polarizace ve 3 pásmech, horizontální a vertikální tj. 18+6=24 kaºdý je²t STA/LTA pom ry, a podzorkovat (mean v okn ) výstup - 1 pokud je tam jev, 0 pokud není aktiva ní funkce tanh u ení - modikace backpropagation - backpropagation through time n jaké kongurace nau eny, nutno zkusit na nových datech... J. Doubravová