Jednotlivé historické modely neuronových sítí



Podobné dokumenty
Neuronové sítě Ladislav Horký Karel Břinda

Rosenblattův perceptron

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Umělé neuronové sítě

Vytěžování znalostí z dat

Trénování sítě pomocí učení s učitelem

5. Umělé neuronové sítě. Neuronové sítě

Algoritmy a struktury neuropočítačů ASN - P11

PV021: Neuronové sítě. Tomáš Brázdil

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Neuronové časové řady (ANN-TS)

1. Úvod do genetických algoritmů (GA)

Moderní systémy pro získávání znalostí z informací a dat

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Státnice odborné č. 20

Vizualizace vybraných metod strojového

3. Vícevrstvé dopředné sítě

Neuronové sítě (11. přednáška)

Algoritmy a struktury neuropočítačů ASN - P1

Neuropočítače. podnět. vnímání (senzory)

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Fakulta elektrotechniky a komunikačních technologíı Ústav automatizace a měřicí techniky v Brně

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Matematický ústav Slezské univerzity v Opavě Učební texty k přednášce ALGEBRA II, letní semestr 2000/2001 Michal Marvan

Lineární klasifikátory

Neuronové sítě v DPZ

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

Rekonstrukce křivek a ploch metodou postupné evoluce

NG C Implementace plně rekurentní

ρ = 0 (nepřítomnost volných nábojů)

Využití metod strojového učení v bioinformatice David Hoksza

Kybernetika a umělá inteligence, cvičení 10/11

Plánování projektu. 3. dubna Úvod. 2 Reprezentace projektu. 3 Neomezené zdroje. 4 Variabilní doba trvání. 5 Přidání pracovní síly

Automatická detekce anomálií při geofyzikálním průzkumu. Lenka Kosková Třísková NTI TUL Doktorandský seminář,

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Třídy složitosti P a NP, NP-úplnost

Strojové učení se zaměřením na vliv vstupních dat

Matematická analýza pro informatiky I.

Emergence chování robotických agentů: neuroevoluce

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

PRAVDĚPODOBNOST A STATISTIKA. Testování hypotéz o rozdělení

5. Lokální, vázané a globální extrémy

Úvod do optimalizace, metody hladké optimalizace

Úloha - rozpoznávání číslic

Algoritmy a struktury neuropočítačů ASN P3

Testování hypotéz. 1 Jednovýběrové testy. 90/2 odhad času

Aplikovaná numerická matematika

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Přednáška 13 Redukce dimenzionality

Principy počítačů I Netradiční stroje

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

StatSoft Úvod do neuronových sítí

Úvod do zpracování signálů

4.6.2 Analýza shluků CLU

Neuronové sítě Minimalizace disjunktivní normální formy

LOKALIZACE ZDROJŮ AE NEURONOVÝMI SÍTĚMI NEZÁVISLE NA ZMĚNÁCH MATERIÁLU A MĚŘÍTKA

Fyzikální laboratoř. Kamil Mudruňka. Gymnázium, Pardubice, Dašická /8

Jaroslav Tuma. 8. února 2010

Technická fakulta. Katedra technologických zařízení staveb. Využití neuronových sítí pro integraci PZTS do inteligentních budov.

Základní spádové metody

A B C D

Metoda nejmenších čtverců Michal Čihák 26. listopadu 2012

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

Využití neuronové sítě pro identifikaci realného systému

Speciální struktury číslicových systémů ASN P12

Rozpoznávání izolovaných slov (malý slovník, např. číslovky, povely).

Derivace goniometrických funkcí

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Numerické metody optimalizace - úvod

CW01 - Teorie měření a regulace

NETYPICKÉ VYUŽITÍ INDUKČNÍHO VAŘIČE

Modelování montážní linky

Klasifikace a rozpoznávání. Lineární klasifikátory

MATURITNÍ TÉMATA Z MATEMATIKY

Memristor. Úvod. Základní struktura mertistorů

Klasifikace předmětů a jevů

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Metody umělé inteligence ve vodním hospodářství

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Stavový model a Kalmanův filtr

1 Linearní prostory nad komplexními čísly

Kritéria hodnocení praktické maturitní zkoušky z databázových systémů

1. DIFERENCIÁLNÍ POČET FUNKCE DVOU PROMĚNNÝCH

Matematika II, úroveň A ukázkový test č. 1 (2018) 1. a) Napište postačující podmínku pro diferencovatelnost funkce n-proměnných v otevřené

Klíčová slova Umělá neuronová síť, Komprese obrazu

Booleovská algebra. Booleovské binární a unární funkce. Základní zákony.

OSA. maximalizace minimalizace 1/22

Transkript:

Jednotlivé historické modely neuronových sítí Tomáš Janík Vícevrstevná perceptronová síť opakování Teoretický model obsahue tři vrstvy perceptronů; každý neuron první vrstvy e spoen s každým neuronem z vrstvy druhé, obdobně mezi druhou a třetí vrstvou. Síť e dopředná signál e posílán každým spoením (synapsí) z první vrstvy, druhá vrstva signály sbírá a vyhodnocue aktivační funkcí a opět posílá signál vrstvě třetí. Neuronům v první vrstvě se říká vstupní, neuronům v třetí výstupní. Protože síť perceptronů e neznáměší a nevíce historická, další modely na ni více či méně navazovaly (nebo si i alespoň uvědomovaly), uvedu k ní příslušnou matematickou realizaci. Dalším důvodem pro to e fakt, že učící algoritmus, který používá, se obevue s různými obměnami v mnoha dalších modelech. Vstupním neuronům zadáváme číselně reprezentovaný problém vektor x, každá synapse e číselně ohodnocena vektor všech synaptických vah w. Všechna čísla sou reálné hodnoty. Neuron v další vrstvě pak počítá svů tzv. vnitřní potenciál: ξ = i w i y i Každý neuron si potenciál zpracue a získá tak hodnotu y, kterou posílá neuronům v další vrstvě. y = σ ( ξ ) 1 σ ( ξ ) = 1+ e λ ξ třeba si všimnout, že σ : R (0,1)

Zatímco pro obyčenou perceptronovou síť e použitá σ ostrá nelinearita, my potřebueme (neboť to vyžadue algoritmus backpropagation) funkci spoitou a diferencovatelnou. V předpisu funkce e použita proměnná λ, který má efekt na strmosti funkce. Tento parametr se dá interpretovat ako míru rozhodnosti sítě (všimněme si, že pokud půde λ, bude se funkce limitně podobat ostré nelinearitě de facto rozhodování ano/ne). Zpětné šíření Algoritmus backpropagation (zpětné šíření) neprve vyádří chybu sítě ako součet všech odchylek od požadovaných výsledků: E( w) = 1 2 p k = 1 Y ( y ( w, x ) d ) k k Tato funkce e spoitou funkcí váhového vektoru a elikož chceme, aby chyba sítě byla co nemenší, celý problém se redukue na hledání lokálního minima funkce. V každém kroku učení e sou předloženy všechny učící pomůcky a upraven váhový vektor: w = w + w ( t ) ( t 1) ( t ) i i i Funkce e poté minimalizována neustálým odečítáním záporného gradientu, epsilon zde představue rychlost učení E w = ε ( w ( t) ( t 1) i wi ) Následuící obrázky ukazuí, co se stane, pokud e epsilon zvoleno příliš malé nebo příliš velké:

Zbytek práce e výpočet derivace funkce E(w), který e vzhledem k tomuto referátu příliš složitý, abychom se ím zabývali. Neslavněší perceptronová síť Mark I Perceptron V roce 1958 manifestoval Frank Rosenblatt výpočetní sílu sítě perceptronů (ež byl tvůrce) na neuropočítači Mark I Perceptron. Byl navržen na rozpoznávání znaků (původním odborným záměrem Rosenblatta bylo rozpoznávání obrazců). Znak byl promítán na tabuli, ze které byl snímán polem 20x20 fotovodičů. Intenzita 400 obrazových bodů byla vstupem neuronové sítě. Mark I Perceptron měl 512 adaptovatelných váhových parametrů (w), které byly realizovány polem 8x8x8 potenciometrů. Hodnota odporu u každého potenciometru byla nastavována samostatným motorem. Perceptronovou síť implementoval analogový obvod, který řídil běh motorů. Rosenblatt k této prezentaci sezval mnoho důležitých postav tehdešího informačního průmyslu. Poté, co se Mark I Perceptron naučil znaky rozpoznávat, dovolil divákům, aby obvody mezi potenciometry libovolně zpřeházeli, a ukázal, že eho počítač e přesto schopen se na novou situaci adaptovat. Proběhlo nové učení a Mark I Perceptron opět demonstroval

správný běh. Právě zásluhou Franka Rosenblatta se stala oblast neurovýpočtů na istou dobu nepozorovaněším a nefinancovaněším odvětvím informačních technologií. Tento fakt měl také vědecké opodstatnění přestože už v době, kdy Rosenblatt vynalezl perceptron, existovaly iné modely sítí, Rosenblatt pro svou síť matematicky dokázal, že e schopna se v konečném času naučit akýkoli problém, pokud řešení takového problému existue. To sou důvody, proč e Rosenblatt považován za zakladatele neurovýpočtů i přes značné zásluhy eho předchůdců. Obecné využití sítě perceptronů Mark I Perceptron byl pouze ednovrstevný model, proto mu stačila standardní ostrá nelinearita při rozhodování. Je zřemé, že ednovrstevná síť perceptronů nikdy nebude schopna řešit všechny druhy funkcí, typickým příkladem e funkce XOR, na kterou e třeba alespoň edné vrstvy mezi vstupem a výstupem. Přestože se v padesátých letech vědělo, že vytvořením takové vícevrstvé sítě by se funkce XOR dala simulovat, nebyl znám žádný učící algoritmus pro takovou síť. Autoři z toho nesprávně vyvodili, že takový algoritmus vzhledem ke komplikovanosti funkce, kterou vícevrstvá síť představue, ani není možný. Jeich tvrzení se přealo a považovalo se za přesvědčivé. Je dokázáno, že vícevrstvá (alespoň edna vrstva mezi vstupem a výstupem více se v klasické perceptronové síti nepoužívá) síť dokáže aproximovat libovolnou spoitou funkci s libovolnou přesností. Přesnost e určena volbou počtu neuronů ve skryté vrstvě. Vzhledem k tomu, že síti zadáváme (většinou) empirická data, e velký počet neuronů chyba. V takovém případě se síť snaží naučit všechny odchylky od něakého průměru, místo aby hledala optimální generalizaci (přeučení sítě), naopak volba malého počtu neuronů vede ke generalizaci přílišné a nežádoucí. Velmi slavný příklad vícevrstvé perceptronové sítě s algoritmem backpropagation e systém NETtalk vyvinutým Terrencem Senowskim a Charlesem Rosenbergem. Jde o převod anglicky psaného textu na mluvený signál. Síť má 7x29 vstupních neuronů pro zakódování kontextu sedmi písmen psaného textu (každé možnosti odpovídá eden neuron 26 pro písmena + eden pro tečku, čárku a mezeru). Síť obsahue 80 skrytých neuronů a 26 výstupních pro všechny anglické fonémy. Tréninkovou množinu tvoří zadávání věty zadává se každé písmeno s šesti znaky, který tvoří kontext. NETtalk zaznamenal velký úspěch a vynutil pozornost dalšímu výzkumu neuronových sítí.

Hopfieldova síť Tomáš Janík Architektura Hopfieldovy sítě e úplný K n graf, kde n e počet neuronů. Takto vypadá pro n=3: Hopfieldova síť e edním z modelů tzv. asociativních pamětí (vedle lineární asociativní sítě). Autoasociativita e vlastnost pozorovaná u člověka, e to např. schopnost vybavit si celé méno člověka, pokud nám někdo připomene křestní méno nebo třeba en počáteční písmeno eho přímení (Hopfieldova síť může být případně použita v databázových systémech), schopnost na základě části obrazu představit si, co e vně. Nečastěi se využívá při ostření obrazu. Model navrhl už McCulloch a Pitts, ale teprve díky Hopfieldovi, který při analýze stability této sítě využil analogii s fyzikální teorií magnetických materiálů, se tento model stal všeobecně známým. Výpočetní princip e proti perceptronům obrácený. Síť se velice rychle a snadno adaptue (naučí) vytváří si tzv. stabilní stavy podle tréninkových vzorů. Náročněší e samotný běh. Neprve se vyádří tzv. energetická funkce: 1 E( y) = 2 n n = 1 i= 1 w iyyi

Opět podobně ako tomu bylo u perceptronů se hledá lokální minimum (místo s nenižší energií) to e pak výpočet sítě. Příklad použití Hopfieldovy sítě: Tomáš Janík Hopfieldova síť se dá použít ako heuristika při řešení problému obchodního cestuícího, problém e stálu v řádu NP úplnosti, ale tato metoda může nabízet určité zefektivnění: Máme dáno N měst (N > 2) a funkci d definuící vzdálenost měst pro každou dvoici. Použieme síť s n = N x N neurony, eichž stavy indexueme y ru (r označue číslo města a u eho možné pořadí). Neurony v ní uspořádáme maticově, ak ukazue tabulka 1. zastávky města

Řádky tabulky představuí města, která chceme navštívit a sloupce určuí pořadí zastávek v těchto městech. Cestuící navštíví každé město právě ednou, tedy v každém řádku tabulky e aktivní eden neuron. To dosáhneme minimalizací výrazu kde A e konstanta určuící vliv této podmínky. Cestuící e při každé zastávce pouze v ednom městě, tedy v každém sloupci tabulky e aktivní eden neuron. Výraz k minimalizaci e kde B má podobnou úlohu ako A v minulém výrazu. Cestuící navštíví právě N měst, tedy v tabulce e aktivních právě N neuronů. Cestuící vykoná co nekratší cestu, řešení bude optimální. Výrazy s proměnnou u e nutné brát modulo počtem měst. Výsledná funkce energie sítě, eíž minimalizací získáme řešení, e součtem uvedených výrazů: Učení bez učitele (Unsupervised Learning) Učení bez učitele nemá žádné kritérium správnosti, algoritmus e navržen tak, že hledá na vstupních datech určité vzorky se společnými vlastnostmi proto se učení bez učitele také nazývá samoorganizace. Společným principem těchto modelů e, že výstupní neurony sítě spolu soutěží o to, který z nich bude aktivní. Na rozdíl od předešlých učících principů e tedy v určitém čase aktivní pouze eden neuron. Samoorganizačním sítím (SOM = Self-Organizing Map nebo Kohonenovy mapy po svém stvořiteli) se zadávaí vstupní hodnoty a neurčue se

im, ak má vypadat výsledek. Hledaí společné vlastnosti a generalizace, nezkoumaí, co e správně, ale hledaí v daném problému něco, co se dá použít k vnitřní organizaci inspirace lidským učením. Nečastěším použitím e zpracování řeči, detekce osob podle fotografie, odstranění rušení (podobné ako Hopfield), automatické třídění všeho druhu. Příklad ednoduché fyzické struktury Kohonenovy mapy Neuron, který má k předloženému vstupu neblíže se označí ako vítězný a ten ediný posune svů váhový vektor eště blíže ke vzoru. Interpretace Kohonenova učení pak souvisí s výše uvedeným soutěžením. Na následuícím obrázku e tento efekt geometricky zobrazen v trorozměrném poli (mřížka na výstupu e dvorozměrná). Vítězný neuron oslabue ostatní neurony a sám svoi pozici upevňue. Na mřížce výstupních neuronů (viz obrázek) tak vznikaí silní reprezentanti určitých trendů akt třízení, neurony kolem těchto silných reprezentantů sou okamžitě utlumeny, vzdáleněší neurony se postupně přidávaí (pokud tedy nesou sami reprezentanty) k některým silným edincům a sou utlumeny. Tomuto systému se někdy také říká k-means clustering hledání k středů. V aktivním režimu e pak zadanému vzoru přisouzen ten neuron z množiny vítězů v průběhu učení, který dovede zadaný vzor nelépe reprezentovat.

Rozložení neuronů ve vstupním datovém prostoru po různém počtu kroků učení Tomáš Janík