výběr charakteristických rysů a zkušeností ze vstupních signálů,
|
|
- Emil Matoušek
- před 8 lety
- Počet zobrazení:
Transkript
1 Kapitola 3 Algoritmy učení Proces učení (trénink) je ve své podstatě optimalizační proces, ve kterém optimalizujeme tzv. účelovou funkci. To je chybová funkce při učení s učitelem (vyjadřuje vzájemnou závislost vstupních parametrů a parametrů neuronové sítě) nebo extrakce statistických veličin ze vstupních vektorů při samoorganizaci (vyjadřuje míru vzdálenosti v prostoru adaptačních parametrů). Učení tedy můžeme definovat jako modifikaci synaptických vah a prahů podle zvoleného algoritmu učení tak, aby byla do sítě uložena informace. Podstatou učení je: výběr charakteristických rysů a zkušeností ze vstupních signálů, nastavení parametrů UNS tak, aby odchylka ( v dané metrice) mezi požadovaným a skutečným výstupem při odezvě na soubor trénovacích vzorů byla minimální. Způsoby učení je možné rozdělit několikerým způsobem, jak ukazuje následující tabulka. Při neasociativním učení je jednou nebo opakovaně síti předkládán vzor nebo skupina vzorů bez uvažování jejich vzájemných souvislostí. Cílem tohoto učení je uchování vzorů v paměti a možnost jejich následného vybavování. Při asociativním učení se extrahují vzájemné vztahy mezi jednotlivými vzory nebo skupinami vzorů. Jednorázové učení lze charak- I neasociativní asociativní II jednorázové opakované III s učitelem bez učitele IV účelové s filtrací Tabulka 3.1: Typy učení UNS 55
2 56 KAPITOLA 3. ALGORITMY UČENÍ terizovat tím, že nejlepšího výsledku je dosaženo v jednom učícím cyklu, nedochází k žádným dalším úpravám. Vžité představě o učení odpovídá opakované učení, při kterém jsou opakovaně předkládány neuronové síti vzory ve snaze o dosažení minimální odchylky od požadovaného výstupu. Tento typ učení může mít různé varianty ve způsobu předkládání vzorů. Jedním z nich je tzv. posilované učení (reinforced learning). U tohoto způsobu učení se zasahuje i do průběhu učebního procesu na základě průběžného vyhodnocování. Nejčastěji se setkáme se způsobem dělení na učení s učitelem resp. bez učitele. U učení s učitelem (supervised learning) jsou známy, pro jistou množinu vzorů (patterns), požadované výsledky (target values, desired outputs), které se přivádí během učení na výstup sítě; síť modifikuje váhy a prahy, aby se její výstupy blížily k požadovaným hodnotám. Jsou-li požadované a vstupní hodnoty stejné, jedná se o auto-asociativním učení, jsou-li různé, pak je to heteroasociativní učení. Toto učení může probíhat dvěma způsoby, a to off-line a on-line. Při učení off-line se počítají synaptické váhy a prahy (bias) pro všechny tréninkové vzorky, modifikovány jsou až tehdy, když jsou do sítě přivedeny všechny vzorky (patterns). Počítá se aktuální gradient chyby E pro úplnou množinu tréninkových vzorků. Výhodou tohoto způsobu trénování je lepší konvergence. V řadě publikací i v NN-Toolboxu programového systému MATLAB se tomuto způsobu trénování říká dávkový trénink (batch training). Naproti tomu při učení on-line neboli inkrementálním (incremental mode) jsou parametry sítě modifikovány po průchodu každého tréninkovém vzorku. Proces konverguje stochasticky k lokálnímu minimu, nezaručuje však dosažení absolutního minima. V porovnání s učením off-line konverguje rychleji. Učení bez učitele nebo také samoorganizace (unsupervised learning, self-organizing) je založeno na schopnosti neuronových sítí rozeznat ve vstupních vzorech stejné nebo blízké vlastnosti a třídit přicházející vektory podle nich. Sobě podobné vektory sdružuje do shluků (clusters). Měnící se vektory vah nejsou porovnávány s požadovanými (target) hodnotami. Účelové učení (performance learning) je založené na hledání extrémů (minim a maxim) účelové funkce Y = t(x, W), kde t je tzv. transformační funkce. Učení s filtrací optimalizuje pouze některé vlastnosti signálu (např. některou složku spektra). Jak poznat vhodný průběh procesu učení UNS? Během trénování je třeba sledovat jeho průběh. To se děje pomocí chybové funkce, která může být vyjádřená např. pomocí závislosti součtu kvadratických chyb SSE (sum squared error) resp. střední kvadratické chyby MSE (mean squared error) na počtu iterací (učebních etap, epoch). Platí
3 57 pro ně následující vztahy: SSE = n (t i y i ) 2 = n i=1 i=1 e 2 i (3.1) MSE = 1 n (t i y i ) 2 = n e 2 i (3.2) n i=1 i=1 n kde n je počet trénovacích epoch, y i je výstupní hodnota z neuronové sítě a t i je požadovaná hodnota. Výsledky těchto výpočtů jsou závislé na množství dat. Proto při posuzování naučenosti neuronové sítě je nutné sledovat trend chybové funkce. Vhodný průběh učení se projevuje hladkou chybovou funkcí, která ukazuje na dobře zvolenou velikost trénovacího souboru a na dobře zvolené parametry učení. Naproti tomu nevhodný průběh učení se pozná podle plochého nebo oscilujícího průběhu chybové funkce. Ten první případ ukazuje na příliš velký trénovací soubor nebo špatně zvolené parametry učení (např. malý krok učení - learning rate), druhý z nich na malý trénovací soubor nebo špatně zvolené parametry učení (např. velký krok učení). Stejně důležité je určení okamžiku, kdy je učení u konce. To se pozná opět podle průběhu chybové funkce. Je-li suma čtverců chyb SSE resp. střední kvadratická odchylka MSE trénovací množiny relativně konstantní během několika posledních epoch a SSE resp. MSE validační množiny začne růst, můžeme učení ukončit (viz obr.3.1). Při sledování průběhu učení je důležité Obrázek 3.1: Průběh chybové funkce s vyznačením konce učení
4 58 KAPITOLA 3. ALGORITMY UČENÍ si uvědomit, jaký účel sledujeme. Pokud je naším cílem natrénování neuronové sítě pro účely generalizace (viz str. 104), je třeba zamezit tzv. přetrénování (overfitting). V takovém případě je třeba rozdělit dostupná data na tři části, na data trénovací, validační a testovací. V průběhu tréninkového procesu se průběžně zobrazuje chybová funkce pro trénovací i validační data současně. UNS je natrénovaná pro účely generalizace tehdy, když chybová funkce dosáhla pro validační data svého minima. Obvyklá velikost validační množiny dat se pohybuje mezi % všech dat. V následujících řádcích si popíšeme jen ty algoritmy (zákony) učení, které se vztahují k neuronovým sítím vyskytujícím se v této knize. Jsou to algoritmus zpětného šíření chyby spíše známý jako algoritmus BPG (Error Back-Propagation Algorithm nebo Back-Propagation of Gradient) akompetitivní učení (competitive learning). 3.1 Algoritmus zpětného šíření chyby Tento algoritmus učení je generalizací Widrow-Hoffova LMS algoritmu (Least Mean Square Algorithm) a byl odvozen pro vícevrstvé neuronové sítě se spojitou nelineární diferencovatelnou aktivační funkcí (např. sigmoidou nebo hyperbolickou tangentou). Pomocí tohoto algoritmu se minimalizuje chybová funkce (cost function), a to prostřednictvím adaptace synaptických vah. K minimalizaci chybové funkce (nazývané také energetická) se používají gradientní metody. Chybová funkce je rovna nejčastěji střední kvadratické chybě mezi požadovaným a skutečným výstupem (viz předcházející strana). Na vstup neuronové sítě je přiváděn vektor resp. pro více vzorů matice vstupních parametrů. Mohou to být číselné hodnoty představující konkrétní hodnoty fyzikálních veličin nebo tzv. kategoriální data (určitým vlastnostem je přiřazena kategorie a zvolená číselná hodnota udává váhu dané vlastnosti vzhledem k ostatním). Po průchodu neuronovou sítí (výstup z každého neuronu je spočítán podle vztahu 2.2.8) je výsledek porovnán s požadovanou (target) hodnotou, je spočítána chyba, ta se zpětně přepočítává do předchozích vrstev a synaptické váhy představující paměť jsou opraveny. Do opravené sítě je znovu přiveden vstupní vektor resp. matice a proces se opakuje. Jedná se o iterativní proces. Hledáme minimum chyby mezi skutečnou (výstupní) hodnotou a požadovanou hodnotou pro všechny vzory učení. Tato metoda je v praxi nejčastěji používaná a je vhodná pro mnoho aplikací (pokud známe výsledek, ke kterému chceme dojít), např. pro aproximace funkcí, predikci nějakých parametrů nebo pro klasifikaci. Její nevýhodou je velká citlivost na relevantnost vstupních dat a na inicializaci synaptických vah. V následujících řádcích bude popsána
5 3.1. ALGORITMUS ZPĚTNÉHO ŠÍŘENÍ CHYBY 59 základní varianta tohoto algoritmu učení a některé novější modifikace. Základní učení využívá pouze adaptaci synaptických vah a prahů, parametry přenosových funkcí se nemění. Můžeme měnit pouze jeden optimalizační parametr, a to rychlost učení, za kterou považujeme délku kroku (learning rate). Modifikované metody dovolují adaptace prahů i sklonů přenosových funkcí, používají více optimalizačních parametrů, které rozhodují o výkonnosti procesu učení. Podrobnější informace je možné najít v mnoha publikacích, např. v [36], [76], [74]. Pro snadnější pochopení vyjádříme nejdříve základní algoritmus pro jeden neuron v jedné vrstvě a následně algoritmus pro více vrstev. Pak budeme pokračovat popisem některých modifikovaných algoritmů, které jsou rychlejší a lépe optimalizují úlohu Základní algoritmus učení se zpětným šířením chyby - BPG Pro potenciál jednoho neuronu tedy platí, označíme-li výstup z neuronu y, požadovanou hodnotu t a jejich rozdíl e = t y u = n w i x i = Wx (3.3) i=0 kde x 0 =1, W je matice vah a x je vstupní vektor. Dále budeme předpokládat, že máme množinu tréninkových vzorků {(x(k), t(k); 1 k K)}. Vlastní trénink začíná přivedením všech K vstupů do sítě a výpočtem odpovídajích výstupů {(y(k); 1 k K}). Matice vah byla inicializována (náhodnými čísly nebo podle specielních vztahů např.v MATLABu. Suma čtverců chyb bude vypočítána podle následujícího vztahu: E = K [e(k)] 2 = K [t(k) y(k)] 2 = K [t(k) f (Wx(k))] 2 (3.4) Cílem je úprava matice vah W tak, aby byla dosažena minimální chyba E. Je to nelineární optimalizace metodou nejmenších čtverců. Algoritmus lze zapsat maticovým způsobem pomocí následujícího vztahu: W(t +1)=W(t)+ΔW(t) (3.5) kde Δ W(t) je odchylka aktuálních vah. Konkrétní tvar této odchylky od sebe odlišuje jednotlivé modifikace algoritmů (viz dále). BPG algoritmus je gradientní metoda. V následujících vztazích bude popsán výpočet chyby E v závislosti na jednotlivých synaptických vahách.
6 60 KAPITOLA 3. ALGORITMY UČENÍ w i = K δ[e(k)] 2 δw i = K 2[t(k) y(k)] y(k) w i i =0, 1... n (3.6) kde pro derivaci výstupní hodnoty y(k) platí y(k) w i = f(u) u u = f (u) w i w i n j=0 w j x j = f (u) x i (3.7) Tedy = 2 K [t(k) y(k)] f (u(k)) x i (k) (3.8) w i Za předpokladu, že pro chybu mezi požadovanou hodnotou a aktuálním výstupem platí δ(k) =[t(k) y(k)]f (u(k)), má rovnice (3.6) tvar = 2 K δ(k) x i (k) (3.9) w i Chyba δ(k) je tedy rovna chybě na výstupu neuronu e(k) =t(k) y(k) násobené derivací aktivační funkce f (u(k)) a reprezentuje tak korekci vah w i příslušejících ke vstupním vzorům x i (k). Celková změna Δ w i tedy představuje sumu takovýchto příspěvků přes všech K tréninkových vzorů. Pak můžeme napsat vztah pro modifikaci vah ve tvaru w i (t +1)=w i (t)+α K δ(k) x i (k) (3.10) Konstanta α udává tzv. rychlost učení (learning rate). Je-li aktivační funkcí sigmoida 1, viz Tabulka 2.1, výraz přejde na tvar δ(k) = =[t(k) y(k)] y(k)[1 y(k)] (3.11) u Počet iterací, po kterém dojde k uložení modifikovaných vah, se nazývá epocha. Složitější situace nastává pro více vrstev. Zavedeme označení potenciálu resp. výstupu odpovídajícímu k-tému tréninkovému vzorku a j- tému neuronu v L 1 vrstvě ve tvaru uj L 1 (k) resp. yj L 1 (k). Vstupní vrstvu označíme jako 0-tou, pak yj 0 (k) =x j (k). Výstup je přiveden do i-tého neuronu v L-té vrstvě prostřednictvím synaptických vah wij(t) L nebo pro jednoduchost označených wij. L 2 Pro derivaci chyby podle vah platí 1 V MATLABu se nazývá logaritmická sigmoida. 2 Pro jednu tréninkovou epochu.
7 3.1. ALGORITMUS ZPĚTNÉHO ŠÍŘENÍ CHYBY 61 w L ij Tedy = 2 K u L i (k) w L ij u L i (k) w L ij = 2 K = 2 K δ L i (k) w L ij m w L im y L 1 m (k) (3.12) δ L i (k) y L 1 j (k) (3.13) Předpokládejme M neuronů ve vrstvě L +1. Do těchto M neuronů vstupuje výstupní hodnota z i-tého neuronu y L i (k). Chyba v L-té vrstvě a v i-tém neuronu pro k-tý vzorek je dána rovnicí δ L i (k) = δ L i (k) = M m=1 u L i (k) = M δ m L+1 (k) m=1 u L i (k) (k) u L+1 m J j=1 u L+1 m (k) u L i (k) wmj L f ( u L j (k) ) (3.14) δi L (k) =f ( u L i (k) ) M δm L+1 (k) wmi L (3.15) m=1 Tato rovnice tedy udává vztah pro zpětné šíření chyby z výstupní vrstvy do vstupní vrstvy, a to vrstvu po vrstvě. Standardní algoritmus zpětného šíření chyby nezaručuje, že bude nalezeno během tréninku skutečně globální minimum. Většinou se jedná o lokální minimum. Tato situace vede často k oscilacím při změně vah během tréninku a následně k jeho předčasnému ukončení. K vyřešení tohoto problému může někdy pomoci změna topologie neuronové sítě Můžeme použít k výpočtům i další nelineární optimalizační metody. Některé jsou součástí modifikovaných algoritmů učení BPG. Vybereme pouze některé z nich, a to ty, které jsou obsaženy v NN-Toolboxu MATLABu a často se používají v aplikacích reálných úloh, protože základní učení je pro reálné úlohy příliš pomalé (viz [120]) Modifikované algoritmy učení se zpětným šířením chyby Při trénování UNS pomocí algoritmu BPG může docházet k některým problémům, které mohou být způsobeny nevhodnou volbou parametrů trénování, volbou nereprezentativních vzorů trénovací množiny a nevhodnou inicializací vah a prahů. Např. při nevhodné volbě rychlosti učení α může dojít k přeskočení malých lokálních minim nebo k následným oscilacím. Tyto nedostatky mohou být odstraněny použitím modifikací základního algoritmu. Využívají např. adaptivní rychlost učení, zavádějí moment
8 62 KAPITOLA 3. ALGORITMY UČENÍ učení, případně kombinují tato zlepšení. To vede k rychlejší konvergenci a snižuje se pravděpodobnost uvíznutí v lokálním minimu. Dnes již existuje řada modifikací, které lze najít např. v NN-Toolboxu MATLABu. V tomto toolboxu jsou modifikované algoritmy rozděleny do dvou velkých skupin, kterými jsou: heuristické optimalizační metody, deterministické optimalizační metody. První často používaná modifikace je gradientní učení s momentem (MOBP - Back-Propagation with Momentum). Řadí se k první skupině heuristických metod. Moment snižuje citlivost učení na detaily chybové funkce, např. pomáhá vyhnout se uvíznutí v lokálním minimu, dovoluje síti odpovídat na lokální gradient, dovoluje sledovat trend chybové křivky. Chová se jako filtr typu dolní propust (dovoluje malé změny obálky chybové funkce). Tato varianta je zpravidla rychlejší, než základní učení. Moment se realizuje přídavným členem v rovnici učení BPG. Tento způsob učení se může používat jak v dávkovém, tak v inkrementálním módu. w L ij(t +1)=w L ij(t) +α K δi L (k) yj L 1 (k) +μ [ wij(t) L wij(t L 1) ] + ε L ij(t) (3.16) Změna vah a prahů závisí na sumě podílu poslední a nové změny vah. Obě konstanty v rovnici, tj. α resp.μ, mohou nabývat hodnot mezi 0 1. Konstanta α udává, jak už bylo uvedeno, rychlost učení (learning rate). Obvykle se volí hodnoty 0 <α<0.3. Konstanta μ je moment. Je-li μ =0, je změna vah založena výhradně na gradientu, je-li μ =1, nová změna vah je rovna poslední změně vah (gradient je zcela ignorován). Obvyklé hodnoty se pohybují v rozmezí 0.6 <μ<0.9. Poslední člen v rovnici 3.16 udává malou náhodnou hodnotu šumu. Pokud druhý nebo třetí člen v této rovnici bude nabývat velkou hodnotu, je možné tento člen zanedbat. Pokud se při výpočtu dostaneme do lokálního minima nebo dosáhneme stabilní hladinu, důležitost odpovídajícího gradientu vektoru nebo momentu je zmenšena. A právě v takovéto situaci může člen udávající šum pomoci chybové funkci z lokálního minima vyskočit a pokračovat v hledání globálního optima. Všechny ostatní modifikace učení BPG představují tzv. učení s proměnnou rychlostí. Konvergují zpravidla 10-krát až 100-krát rychleji než základní nebo momentové učení. Mezi heuristické techniky, které známe již z předchozího momentového učení, patří dále modifikace používající proměnnou rychlost učení (Variable Learning Rate - VLBP, adaptive learning rate) a tzv. pružné BPG učení (Resilient Back-Propagation). Do
9 3.1. ALGORITMUS ZPĚTNÉHO ŠÍŘENÍ CHYBY 63 druhé skupiny, která používá standardní numerické optimalizační metody, řadíme např. metodu konjugovaném gradientu (conjugate gradient), kvazi-newtonovu metodu a Levenberg-Marquardtův algoritmus. Nejdříve k čemu slouží proměnná rychlost učení. Je-li rychlost učení příliš velká, algoritmus může oscilovat a učení se stává nestabilním. Je-li naopak příliš malá, algoritmus bude konvergovat velmi pomalu. Není prakticky možné předem určit optimální hodnotu rychlosti učení, ale je třeba ji určit experimentáně. Při adaptivní rychlosti učení (VLBP) se určuje, jak velká je maximálně možná změna rychlosti učení, aby bylo učení ještě stabilní. Maximální poměr staré a nové chyby má obvykle hodnotu 1.04 (tzn. že je dovolena 4% změna). Hodnota rychlosti učení se často pohybuje mezi hodnotami 0.7 (decrement) a1.05 (increment). VLBP algoritmus je rychlejší než MOBP, zpravidla se používá při dávkovém učení. Vyžaduje více paměti. Je robustní, ale volba hodnot parametrů učení ovlivňuje rychlost konvergence a je závislá na řešeném problému. Je možné také kombinovat momentové učení a učení s adaptivní rychlostí. Vícevrstvé sítě obvykle používají ve skrytých vrstvách jako aktivační funkci sigmoidu. Tyto funkce jsou často nazývány anglicky squashing ( mačkající ), protože stlačují nekonečnou oblast vstupů do konečné oblasti výstupů. Sigmoidální funkce jsou charakterizovány tím, že jejich strmost (slope) se musí blížit nule pro libovolně velký vstup. Tento fakt může být na překážku, protože gradient může dosahovat velmi malých hodnot a v důsledku toho jsou váhy a prahy daleko od svých optimálních hodnot. Problém odstraňuje tzv. pružné BPG učení (Resilient Backpropagation - RSBP). U této varianty se k určení směru modifikace vah užívá pouze znaménko derivace. Amplituda derivace změnu vah neovlivňuje. Konvergence algoritmu je mnohem rychlejší. Všechny dosud popsané modifikace jsou založeny na strmém zmenšování chybové funkce (steepest descent). Toto nejrychlejší zmenšení gradientu ale nemusí mít za následek nejrychlejší konvergenci. Ta může být dosažena použitím algoritmu konjugovaného gradientu (Conjugate Gradient Backpropagation - CGBP). Tato modifikace učení je v MATLABu používána v dávkovém módu. Podrobněji jsou některé metody konjugovaného gradientu (stejně jako ostatní modifikace BPG) popsány v manuálu [74]. Další alternativou konjugovaných gradientních metod pro rychlou optimalizaci je kvazi-newtonova metoda (Quasi-Newton Algorithm - QNBP). Je založena na vztahu pro Newtonovu metodu W k+1 = W k A 1 k g k (3.17)
10 64 KAPITOLA 3. ALGORITMY UČENÍ kde A k je Hessova matice druhých derivací. Protože výpočet druhých derivací je dlouhý, kvazi-newtonova metoda nepočítá druhé derivace analyticky, ale iterativně. Poslední modifikací je Levenberg-Marquardtův algoritmus - LMBP. Má-li chybová funkce podobu sumy čtverců (což je typické pro trénink dopředných vrstevnatých sítí), může být Hessova matice aproximována pomocí Jacobiho matice a algoritmus učení lze zapsat ve tvaru W k+1 = W k [ J T J + μi ] J T e (3.18) kde J je Jacobian derivací chyb v závislosti na vahách, μ je skalární hodnota a e je vektor chyb. Tato modifikace je považován za nejrychlejší z dosud známých. Je však velmi náročná na paměť, proto se dá použít jen pro malé sítě, které obsahují maximálně kolem několika tisíc parametrů sítě (vah a prahů). Je velmi těžké určit, která z modifikací BPG algoritmu učení je nejrychlejší v dané aplikaci. Závisí to na mnoha faktorech (např. na komplexnosti úlohy, na počtu a charakteru dat v trénovací množině, na počtu vah a prahů UNS, na dovolené chybě a na typu úlohy). Lze uvést, pouze pro orientaci, následující doporučení. Levenberg-Marquardtův algoritmus - LMBP se používá zpravidla pro malou síť. Tento algoritmus je nevhodný pro řešení problémů rozpoznávání. Pro tuto úlohu se hodí lépe pružné RSBP učení (resilient backpropagation). Konjugované gradientní metody (CGBP, QNBP) se používají především pro UNS s velkým počtem vah. Nevyžadují totiž velkou paměť. V některých úlohách je velká rychlost konvergence spíše na překážku. Např. při metodě častého zastavování - ESBP (early stopping). Při tomto způsobu učení jsou data, která máme k dispozici, rozdělena do tří částí. První tvoří tréninkovou množinu, která se používá pro výpočet gradientu k adaptaci vah a prahů. Druhá skupina je kontrolní (validační) (validation set). Chyba v této kontrolní množině je sledována průběžně během celého tréninkového procesu. Trénink je ukončen v okamžiku, kdy chyba kontrolní množiny začne stoupat. V tomto případě je užitečné vykreslovat také chybu testovací množiny (třetí skupina) během trénování. Jestliže chyba pro testovací množinu dosahuje minima ve výrazně jiném počtu iterací než kontrolní množina, ukazuje to na špatné rozdělení dat. Shrneme-li si vlastnosti algoritmu BPG a jeho variant, můžeme konstatovat, že: všechny varianty algoritmu BPG se užívají pro trénování vícevrstvé neuronové sítě s diferencovatelnými aktivačními funkcemi,
11 3.2. KOMPETITIVNÍ UČENÍ 65 používají se pro aproximace funkcí, přiřazení vzorů, klasifikaci vzorů a modelování některých parametrů signálů, počet vstupů do UNS závisí na řešeném problému, počet výstupů z UNS je dán počtem požadovaných hodnot, počet skrytých neuronů (resp. vrstev) záleží na znalostech a zkušenostech návrháře, 80% až 90% praktických aplikací užívá některou variantu učení BPG Pozn.: Praktické zkušenosti ukazují, že důležitější než počet skrytých vrstev je celkový počet skrytých neuronů. Zlepšení, které dosáhneme volbou dvou a více skrytých vrstev, bývá velmi malé, v reálných aplikačních úlohách často nepodstatné. Daleko více chyb do výsledku vnášejí nepřesnosti vzniklé předzpracováním vstupních dat, existencí různých šumů, které skutečná data provázejí, ale často také nedostatečnou znalostí fyzikální podstaty řešeného problému a vzájemných vazeb. Velmi často získáme lepší výsledky, když použijeme jednu skrytou vrstvu s větším počtem skrytých neuronů než je jejich počet ve vstupní vrstvě. Neuronová síť bude mít více stupňů volnosti, dojde k jakémusi rozostření problému. Umožníme tím neuronové síti sledovat více podrobností, najít vazby mezi jednotlivými daty a vybrat si mezi nimi ty důležité pro řešení problému. 3.2 Kompetitivní učení Kompetitivní učení nazýváme také učení soutěžní. Popisuje chování UNS s lokálním propojením. Signál, který přichází k jednomu neuronu, je šířen také k jeho sousedním neuronům. Předpokládáme sekvenci vstupních vektorů (vzorků) X(t) =(x 1,x 2,...,x n ) kde t je čas a dále množinu proměnných vektorů Wj ref 2,...,wm ref ), které nazveme referenční vektory. Pojmenování referenční je zvoleno proto, že právě s nimi budou (t) =(w ref 1,w ref porovnávány vstupní vektory X. 3 Referenční vektory Wj ref (0) jsou inicializovány zpravidla malými náhodnými čísly, případně jinými hodnotami získanými předzpracováním vstupních dat. Každý vektor X(t) je v každém časovém okamžiku t porovnáván s každým referenčním vektorem Wj ref (t). Mírou porovnání je vzdálenost d(x, W ref j ). Platí-li, že index j = c, pak se jedná o index nejbližšího referenčního vektoru. Vzdálenost d(x, Wc ref ) je minimum ze všech vypočítaných 3 V knize [57] jsou nazývány modely m i. Jsou to parametrické reálné vektory. V této knize je zvoleno označení W ref j (t) z důvodu snadnějšího pochopení jejich významu při porovnání se synaptickými vahami W j (t) v učení s učitelem.
12 66 KAPITOLA 3. ALGORITMY UČENÍ vzdáleností. Vektor Wc ref se nazývá vítěz v kompetici (winner). Jeho hodnota se změní podle algoritmu učení a všechny ostatní referenční vektory Wj ref,j c zůstanou nezměněny. Z tohoto učení vyšel Teuvo Kohonen a definoval kolem vítěze tzv. topologické okolí N c = N c (t k ) (topological neighbourhood), které je funkcí diskrétních hodnot času a do kterého se klasifikují všechny vstupní vektory, které se nejvíce podobají vítězi. Hledá se tedy míra podobnosti (similarity measure) resp. míra neshody (dissimilarity measure). Vytvoří se shluk (cluster) všech vstupních vektorů, které mají společné nebo blízké vlastnosti. Tyto shluky se rozmístí v mapě a ukáží nám jednak počet dominantních vlastností v rámci jednoho tréninkového procesu, jednak mohou ukázat posun ve vstupních datech a přeřazení některé vlastnosti do jiné skupiny při opakování procesu. Vždy se jedná o klasifikační úlohu. Kohonenův algoritmus učení popisují následující řádky. 1. Volba topologie mapy a okolí (viz kapitola 5). 2. Inicializace vah (referenčních vektorů) Wj ref (t) v kompetitivní vrstvě. 3. Výpočet vzdáleností a hledání jejich minima (vítěze kompetice) viz rovnice pro Euclideovu vzdálenost ( 2.1) pro X =(x 1,x 2,... x n ) a W ref j =(w ref j1,w ref j2... w ref jm ). Mapu můžeme inicializovat pomocí náhodných čísel, proces uspořádání hodnot v mapě však bude dlouhý. Chceme-li, aby konvergence byla rychlejší, je nutné inicializační hodnoty w ref j vybrat jiným způsobem, např. z oboru hodnot vstupních vektorů. Pro vítězný neuron se hledá nejmenší ze všech spočítaných vzdáleností: d(x, Wc ref )=min i [d(x, W ref j )] (3.19) nebo také x Wc ref = min i { x W ref j } (3.20) Souřadnice neuronu Wc ref jsou souřadnicemi vítězného neuronu v mapě, který bude dále také nazýván BMU (best matching unit viz také str.42). 4. Adaptace - hledají se všechny vstupní vektory blízké neuronu c (tedy neurony, o nichž můžeme říct, že patří do jeho okolí N c ), jejich váhy jsou adaptovány v souhlase s algoritmem učení. Tvoří jednotlivé shluky. Váhy neuronů ležících vně okolí N c se nemění. W ref i W ref i (t +1) = Wi ref (t) +g(t)[x(t) Wi ref (t)], i N c (t +1) = W ref i (t), pro všechna ostatní i (3.21)
13 3.2. KOMPETITIVNÍ UČENÍ 67 N c je zvolené okolí vítězného neuronu (jeho poloměr je funkcí času, s rostoucím časem se monotónně zmenšuje), t je čas, g(t) je skalár představující rychlost učení (Kohonenem nazývaný gains). 0 <g(t) < 1 (3.22) Jeho velikost se pohybuje v rozmezí (0, 1), podobně jako koeficient α u BPG algoritmu. Je také možné použít obecnější skalární funkci h cj. Jedná se o tzv. funkci okolí. Označíme-li souřadnice neuronů-vítězů jako c a souřadnice ostatních neuronů j pomocí vektorů r c a r j, pak tato funkce může mít tvar h cj (t) =h 0 e K, K = ( r c r j ) 2 (3.23) λ 2 kde h 0 = h 0 (t) a λ = λ(t) jsou funkce monotónně klesající s časem. Funkce h 0 je obecně závislá na rychlosti učení g(t) a λ je definovaná jako šířka jádra funkce a odpovídá poloměru okolí N c. Takto definovaná funkce se vyskytuje často v biologických systémech, nazývá se Gaussova funkce. Další příklady funkce okolí jsou definovány vztahy( 3.24) a ( 3.25). h cj (t) =h(( r c r j ),t) (3.24) kde r c R 2 a r j R 2 představují umístění vektorů promítnutých jako neurony v mapě, které jsou označené indexy c a j. Pro klesající ( r c r j je také h cj 0. h cj (t) = g(t),j N c h cj (t) = 0,j N c (3.25) Funkce okolí ( 3.25) se používá v případě, že SOM není příliš velká, nejvýše několik set neuronů. Pak na způsobu výběru parametrů funkce příliš nezáleží. Existují však případy, kdy výsledek závisí na výběru velikosti okolí (viz další text). Při učení neurčujeme velikost odezvy, ale pouze umístění vítězného vektoru v mapě. Pokud proces končí pro N c = c, kdy je okolí totožné s vítězným neuronem, Kohonenův algoritmus přejde na jednoduché kompetiční učení. Na závěr tohoto odstavce je třeba upozornit na několik důležitých faktů. Především konvergence učení závisí na mnoha parametrech (inicializační hodnoty parametrů a vah, počet neuronů a způsob jejich organizace v mapě, tvar a velikost sousedního okolí i-tého neuronu, rychlost učení). Dále je třeba si uvědomit, že přesnost tzv. mapování vstupních vektorů X do příslušných shluků referenčních vektorů W ref závisí na počtu iterací, kterých musí být dostatečný počet. Učení je totiž stochastický proces, u kterého závisí končná
14 68 KAPITOLA 3. ALGORITMY UČENÍ Obrázek 3.2: Motýlí efekt při trénování SOM. statistická přesnost na počtu kroků v konečné fázi konvergence. Počet elementů ve vstupním vektoru x však nemá vliv na počet iterací. (v literatuře se doporučuje 500-krát více kroků než je neuronů v mapě). Jejich počet je řádově 10 5, pro přibližně prvních 1000 iterací (pokud byly inicializační hodnoty vah nastaveny pomocí náhodných čísel) je často uvažována rychlost učení g(t) konstantní (blízká jedné), dále se obvykle monotónně snižuje (lineárně, exponenciálně, skokově,...), např. g(t) =0.9(1 t/1000), skonečnou hodnotou kolem Často se začíná s trénováním v takovém inicializačním stavu, ve kterém uspořádání neuronů odpovídá přibližně funkci rozdělení vstupních vektorů. Je-li tomu tak, trénovací proces konverguje rychle a rovnoměrně v případě, že funkce okolí bude velmi úzká a g(t) bude začínat na malých hodnotách (0.2 nebo 0.1). Není to rozhodující, pokud se g(t) zmenšuje lineárně nebo exponenciálně během konečné fáze. U velké mapy je třeba minimalizovat čas potřebný k trénování, proto je výběr g(t) důležitý. Často je nutné jej určit experimentálně. Důležitá je také volba velikosti okolí N c = N c (t). Malé okolí na začátku procesu způsobí, že výsledné členění mapy nebude rovnoměrně rozložené. Proto se doporučuje zvolit minimálně 1/2 velikosti mapy (obvyklá hodnota velikosti okolí je rovna velikosti mapy). Při špatné volbě velikosti okolí (malé okolí) a rychlosti učení dochází k jevu nazvaném efekt motýlího křídla,(twist effect) viz levá část Obr Pravá část tohoto obrázku představuje optimálně natrénovanou SOM s dostatečně velkým počátečním okolím. V nadcházejících dvou kapitolách se zaměříme na vysvětlení dvou základních a nejvíce používaných architektur, kterými jsou vícevrstvé neuronové sítě a samoorganizující se mapy. Algoritmy učení, které k nim náleží (algoritmus BPG a kompetitivní učení), 4 U reálných aplikací je často tento počet iterací mnohem menší, pro úlohy klasifikace stačí řádově tisíce. Opět záleží především na struktuře vstupních dat a na jejich předzpracování, stejně jako u učení BPG.
15 3.2. KOMPETITIVNÍ UČENÍ 69 byly vysvětleny v právě končící kapitole.
Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby
Algoritmy a struktury neuropočítačů ASN P4 Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby Vrstevnatá struktura - vícevrstvé NN (Multilayer NN, MLNN) vstupní vrstva (input layer)
Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy
Algoritmy a struktury neuropočítačů ASN - P2 Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy Topologie neuronových sítí (struktura, geometrie, architektura)
Umělé neuronové sítě
Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační
Trénování sítě pomocí učení s učitelem
Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup
Algoritmy a struktury neuropočítačů ASN P3
Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností
Algoritmy a struktury neuropočítačů ASN - P11
Aplikace UNS při rozpoznání obrazů Základní úloha segmentace obrazu rozdělení obrazu do několika významných oblastí klasifikační úloha, clusterová analýza target Metody Kohonenova metoda KSOM Kohonenova
Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně
Aplikace UNS v biomedicíně aplikace v medicíně postup při zpracování úloh Aplikace UNS v medicíně Důvod: nalezení exaktnějších, levnějších a snadnějších metod určování diagnóz pro lékaře nalezení šetrnějších
5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015
Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík,, CSc. NEURONOVÉ SÍTĚ otázky a odpovědi 1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma
5. Umělé neuronové sítě. Neuronové sítě
Neuronové sítě Přesný algoritmus práce přírodních neuronových systémů není doposud znám. Přesto experimentální výsledky na modelech těchto systémů dávají dnes velmi slibné výsledky. Tyto systémy, včetně
Rosenblattův perceptron
Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného
Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44
Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný
1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15
Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních
Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma
Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky
Pokročilé metody učení neuronových sítí. Tomáš Řehořek tomas.rehorek@fit.cvut.cz
Pokročilé metody učení neuronových sítí Tomáš Řehořek tomas.rehorek@fit.cvut.cz Problém učení neuronové sítě (1) Nechť N = (V, I, O, S, w, f, h) je dopředná neuronová síť, kde: V je množina neuronů I V
3. Vícevrstvé dopředné sítě
3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze
Neuronové časové řady (ANN-TS)
Neuronové časové řady (ANN-TS) Menu: QCExpert Prediktivní metody Neuronové časové řady Tento modul (Artificial Neural Network Time Series ANN-TS) využívá modelovacího potenciálu neuronové sítě k predikci
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
Úvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc
Neuronové sítě a možnosti jejich využití Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc 1. Biologický neuron Osnova 2. Neuronové sítě Umělý neuron
Státnice odborné č. 20
Státnice odborné č. 20 Shlukování dat Shlukování dat. Metoda k-středů, hierarchické (aglomerativní) shlukování, Kohonenova mapa SOM Shlukování dat Shluková analýza je snaha o seskupení objektů do skupin
Numerické metody a programování. Lekce 8
Numerické metody a programování Lekce 8 Optimalizace hledáme bod x, ve kterém funkce jedné nebo více proměnných f x má minimum (maximum) maximalizace f x je totéž jako minimalizace f x Minimum funkce lokální:
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
Numerické metody optimalizace - úvod
Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu
Numerická matematika 1
Numerická matematika 1 Obsah 1 Řešení nelineárních rovnic 3 1.1 Metoda půlení intervalu....................... 3 1.2 Metoda jednoduché iterace..................... 4 1.3 Newtonova metoda..........................
UČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Numerické metody a programování. Lekce 7
Numerické metody a programování Lekce 7 Řešení nelineárních rovnic hledáme řešení x problému f x = 0 strategie: odhad řešení iterační proces postupného zpřesňování řešení výpočet skončen pokud je splněno
Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely
Učení bez učitele Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely Klastrování Kohonenovy mapy LVQ (Učení vektorové kvantizace) Zbývá: Hybridní modely (kombinace učení bez učitele
Úvod do zpracování signálů
1 / 25 Úvod do zpracování signálů Karel Horák Rozvrh přednášky: 1. Spojitý a diskrétní signál. 2. Spektrum signálu. 3. Vzorkovací věta. 4. Konvoluce signálů. 5. Korelace signálů. 2 / 25 Úvod do zpracování
Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005
Rozpoznávání písmen Jiří Šejnoha Rudolf Kadlec (c) 2005 Osnova Motivace Popis problému Povaha dat Neuronová síť Architektura Výsledky Zhodnocení a závěr Popis problému Jedná se o praktický problém, kdy
1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET
Obsah 1. Soutěživé sítě... 2 1.1 Základní informace... 2 1.2 Výstupy z učení... 2 1.3 Jednoduchá soutěživá síť MAXNET... 2 1.3.1 Organizační dynamika... 2 1.3.2 Adaptační dynamika... 4 1.3.3 Aktivní dynamika...
AVDAT Nelineární regresní model
AVDAT Nelineární regresní model Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Nelineární regresní model Ey i = f (x i, β) kde x i je k-členný vektor vysvětlujících proměnných
Hledání extrémů funkcí
Hledání extrémů funkcí Budeme se zabývat téměř výhradně hledáním minima. Přes nost nalezeného extrému Obecně není hledání extrému tak přesné jako řešení rovnic. Demonstrovat to můžeme na příkladu hledání
Využití neuronové sítě pro identifikaci realného systému
1 Portál pre odborné publikovanie ISSN 1338-0087 Využití neuronové sítě pro identifikaci realného systému Pišan Radim Elektrotechnika 20.06.2011 Identifikace systémů je proces, kdy z naměřených dat můžeme
Jaroslav Tuma. 8. února 2010
Semestrální práce z předmětu KMA/MM Odstraňování šumu z obrazu Jaroslav Tuma 8. února 2010 1 1 Zpracování obrazu Zpracování obrazu je disciplína zabývající se zpracováním obrazových dat různého původu.
Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.
Základní pojmy z oblasti neuronových sítí Zde je uveden přehled některých základních pojmů z oblasti neuronových sítí. Tento přehled usnadní studium a pochopení předmětu. ADALINE - klasická umělá neuronová
OPTIMALIZACE. (přehled metod)
OPTIMALIZACE (přehled metod) Typy optimalizačních úloh Optimalizace bez omezení Nederivační metody Derivační metody Optimalizace s omezeními Lineární programování Nelineární programování Globální optimalizace
Numerické řešení nelineárních rovnic
Numerické řešení nelineárních rovnic Mirko Navara http://cmp.felk.cvut.cz/ navara/ Centrum strojového vnímání, katedra kybernetiky FEL ČVUT Karlovo náměstí, budova G, místnost 104a http://math.feld.cvut.cz/nemecek/nummet.html
Algoritmy a struktury neuropočítačů ASN - P1
Algoritmy a struktury neuropočítačů ASN - P1 http://amber.feld.cvut.cz/ssc www.janatuckova.cz Prof.Ing. Jana Tučková,CSc. Katedra teorie obvodů K331 kancelář: 614, B3 tel.: 224 352 098 e-mail: tuckova@fel.cvut.cz
Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague
1 / 40 regula Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague regula 1 2 3 4 5 regula 6 7 8 2 / 40 2 / 40 regula Iterační pro nelineární e Bud f reálná funkce
Co je obsahem numerických metod?
Numerické metody Úvod Úvod Co je obsahem numerických metod? Numerické metody slouží k přibližnému výpočtu věcí, které se přesně vypočítat bud nedají vůbec, nebo by byl výpočet neúměrně pracný. Obsahem
Aplikovaná numerická matematika
Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
NG C Implementace plně rekurentní
NG C Implementace plně rekurentní neuronové sítě v systému Mathematica Zdeněk Buk, Miroslav Šnorek {bukz1 snorek}@fel.cvut.cz Neural Computing Group Department of Computer Science and Engineering, Faculty
Neuronové sítě Ladislav Horký Karel Břinda
Neuronové sítě Ladislav Horký Karel Břinda Obsah Úvod, historie Modely neuronu, aktivační funkce Topologie sítí Principy učení Konkrétní typy sítí s ukázkami v prostředí Wolfram Mathematica Praktické aplikace
Přednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
Úloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
Globální matice konstrukce
Globální matice konstrukce Z matic tuhosti a hmotnosti jednotlivých prvků lze sestavit globální matici tuhosti a globální matici hmotnosti konstrukce, které se využijí v řešení základní rovnice MKP: [m]{
Definice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti:
Přednáška 1. Definice 1.1. Nechť je množina. Funkci ρ : R nazveme metrikou, jestliže má následující vlastnosti: (1 pro každé x je ρ(x, x = 0; (2 pro každé x, y, x y, je ρ(x, y = ρ(y, x > 0; (3 pro každé
2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2
Výpočet transformačních koeficinetů vybraných 2D transformací Jan Ježek červen 2008 Obsah Odvození transformačního klíče vybraných 2D transformací 2 Meto vyrovnání 2 2 Obecné vyjádření lineárních 2D transformací
Úvod do analytické mechaniky
Úvod do analytické mechaniky Vektorová mechanika, která je někdy nazývána jako Newtonova, vychází bezprostředně z principů, které jsou vyjádřeny vztahy mezi vektorovými veličinami. V tomto případě např.
1 0 0 u 22 u 23 l 31. l u11
LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23
OPTIMALIZAČNÍ ÚLOHY. Modelový příklad problém obchodního cestujícího:
OPTIMALIZAČNÍ ÚLOHY Problém optimalizace v různých oblastech: - minimalizace času, materiálu, - maximalizace výkonu, zisku, - optimalizace umístění komponent, propojení,... Modelový příklad problém obchodního
5. Lokální, vázané a globální extrémy
5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,
Moderní systémy pro získávání znalostí z informací a dat
Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
7. Rozdělení pravděpodobnosti ve statistice
7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,
1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.
Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou
Iterační metody řešení soustav lineárních rovnic. 27. prosince 2011
Iterační metody řešení soustav lineárních rovnic Michal Čihák 27. prosince 2011 Přímé metody řešení soustav lineárních rovnic V přednáškách z lineární algebry jste se seznámili s několika metodami řešení
Pokročilé neparametrické metody. Klára Kubošová
Klára Kubošová Další typy stromů CHAID, PRIM, MARS CHAID - Chi-squared Automatic Interaction Detector G.V.Kass (1980) nebinární strom pro kategoriální proměnné. Jako kriteriální statistika pro větvení
Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody
Fakulta chemicko-technologická Katedra analytické chemie 3.2 Metody s latentními proměnnými a klasifikační metody Vypracoval: Ing. Tomáš Nekola Studium: licenční Datum: 21. 1. 2008 Otázka 1. Vypočtěte
Rozdělování dat do trénovacích a testovacích množin
Rozdělování dat do trénovacích a testovacích množin Marcel Jiřina Rozpoznávání je důležitou metodou při zpracování reálných úloh. Rozpoznávání je definováno dvěma kroky a to pořízením dat o reálném rozpoznávaném
Automatická detekce anomálií při geofyzikálním průzkumu. Lenka Kosková Třísková NTI TUL Doktorandský seminář, 8. 6. 2011
Automatická detekce anomálií při geofyzikálním průzkumu Lenka Kosková Třísková NTI TUL Doktorandský seminář, 8. 6. 2011 Cíle doktorandské práce Seminář 10. 11. 2010 Najít, implementovat, ověřit a do praxe
10 Funkce více proměnných
M. Rokyta, MFF UK: Aplikovaná matematika II kap. 10: Funkce více proměnných 16 10 Funkce více proměnných 10.1 Základní pojmy Definice. Eukleidovskou vzdáleností bodů x = (x 1,...,x n ), y = (y 1,...,y
2. RBF neuronové sítě
2. RBF neuronové sítě Kapitola pojednává o neuronových sítích typu RBF. V kapitole je popsána základní struktura tohoto typu neuronové sítě. Poté následuje definice a charakteristika jednotlivých radiálně
U Úvod do modelování a simulace systémů
U Úvod do modelování a simulace systémů Vyšetřování rozsáhlých soustav mnohdy nelze provádět analytickým výpočtem.často je nutné zkoumat chování zařízení v mezních situacích, do kterých se skutečné zařízení
Kombinatorická minimalizace
Kombinatorická minimalizace Cílem je nalézt globální minimum ve velké diskrétní množině, kde může být mnoho lokálních minim. Úloha obchodního cestujícího Cílem je najít nejkratší cestu, která spojuje všechny
Připomenutí co je to soustava lineárních rovnic
Připomenutí co je to soustava lineárních rovnic Příklad 2x 3y + z = 5 3x + 5y + 2z = 4 x + 2y z = 1 Soustava lineárních rovnic obecně Maticový tvar: a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a
VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ
VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ Michal Kořenář 1 Abstrakt Rozvoj výpočetní techniky v poslední době umožnil také rozvoj výpočetních metod, které nejsou založeny na bázi
Vytěžování znalostí z dat
Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 1/26 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information
Aplikovaná numerická matematika - ANM
Aplikovaná numerická matematika - ANM 3 Řešení soustav lineárních rovnic iterační metody doc Ing Róbert Lórencz, CSc České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových
Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1
Logistická regrese Menu: QCExpert Regrese Logistická Modul Logistická regrese umožňuje analýzu dat, kdy odezva je binární, nebo frekvenční veličina vyjádřená hodnotami 0 nebo 1, případně poměry v intervalu
Chyby měření 210DPSM
Chyby měření 210DPSM Jan Zatloukal Stručný přehled Zdroje a druhy chyb Systematické chyby měření Náhodné chyby měření Spojité a diskrétní náhodné veličiny Normální rozdělení a jeho vlastnosti Odhad parametrů
Zpracování biologických signálů umělými neuronovými sítěmi
Zpracování biologických signálů umělými neuronovými sítěmi Jana Tučková Katedra teorie obvodů - Laboratoř umělých neuronových sítí FEL ČVUT v Praze tuckova@fel.cvut.cz http://amber.feld.cvut.cz/user/tuckova
Dynamika soustav hmotných bodů
Dynamika soustav hmotných bodů Mechanický model, jehož pohyb je charakterizován pohybem dvou nebo více bodů, nazýváme soustavu hmotných bodů. Pro každý hmotný bod můžeme napsat pohybovou rovnici. Tedy
Interpolace, ortogonální polynomy, Gaussova kvadratura
Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť
Regresní a korelační analýza
Regresní a korelační analýza Mějme dvojici proměnných, které spolu nějak souvisí. x je nezávisle (vysvětlující) proměnná y je závisle (vysvětlovaná) proměnná Chceme zjistit funkční závislost y = f(x).
Aproximace funkcí. x je systém m 1 jednoduchých, LN a dostatečně hladkých funkcí. x c m. g 1. g m. a 1. x a 2. x 2 a k. x k b 1. x b 2.
Aproximace funkcí Aproximace je výpočet funkčních hodnot funkce z nějaké třídy funkcí, která je v určitém smyslu nejbližší funkci nebo datům, která chceme aproximovat. Třída funkcí, ze které volíme aproximace
Nelineární problémy a MKP
Nelineární problémy a MKP Základní druhy nelinearit v mechanice tuhých těles: 1. materiálová (plasticita, viskoelasticita, viskoplasticita,...) 2. geometrická (velké posuvy a natočení, stabilita konstrukcí)
Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky
Neuronové sítě AIL002 Iveta Mrázová 1 František Mráz 2 1 Katedra softwarového inženýrství 2 Kabinet software a výuky informatiky Do LATEXu přepsal: Tomáš Caithaml Učení s učitelem Rozpoznávání Použití:
TERMINOLOGIE ... NAMĚŘENÁ DATA. Radek Mareček PŘEDZPRACOVÁNÍ DAT. funkční skeny
PŘEDZPRACOVÁNÍ DAT Radek Mareček TERMINOLOGIE Session soubor skenů nasnímaných během jednoho běhu stimulačního paradigmatu (řádově desítky až stovky skenů) Sken jeden nasnímaný objem... Voxel elementární
STATISTICKÉ ODHADY Odhady populačních charakteristik
STATISTICKÉ ODHADY Odhady populačních charakteristik Jak stanovit charakteristiky rozložení sledované veličiny v základní populaci? Populaci většinou nemáme celou k dispozici, musíme se spokojit jen s
CITLIVOSTNÍ ANALÝZA DYNAMICKÝCH SYSTÉMŮ I
Informačné a automatizačné technológie v riadení kvality produkcie Vernár,.-4. 9. 005 CITLIVOSTNÍ ANALÝZA DYNAMICKÝCH SYSTÉMŮ I KÜNZEL GUNNAR Abstrakt Příspěvek uvádí základní definice, fyzikální interpretaci
Numerické řešení variačních úloh v Excelu
Numerické řešení variačních úloh v Excelu Miroslav Hanzelka, Lenka Stará, Dominik Tělupil Gymnázium Česká Lípa, Gymnázium Jírovcova 8, Gymnázium Brno MirdaHanzelka@seznam.cz, lenka.stara1@seznam.cz, dtelupil@gmail.com
přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat
Zkouška ISR 2013 přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat 1. Rozdílné principy u induktivního a deduktivního
Aproximace funkcí. Numerické metody 6. května FJFI ČVUT v Praze
Aproximace funkcí Numerické metody 6. května 2018 FJFI ČVUT v Praze 1 Úvod Dělení Interpolace 1D Více dimenzí Minimalizace Důvody 1 Dělení Dělení - Získané data zadané data 2 Dělení - Získané data Obecně
UNIVERZITA PARDUBICE. 4.4 Aproximace křivek a vyhlazování křivek
UNIVERZITA PARDUBICE Licenční Studium Archimedes Statistické zpracování dat a informatika 4.4 Aproximace křivek a vyhlazování křivek Mgr. Jana Kubátová Endokrinologický ústav V Praze, leden 2012 Obsah
Neuropočítače. podnět. vnímání (senzory)
Neuropočítače Princip inteligentního systému vnímání (senzory) podnět akce (efektory) poznání plánování usuzování komunikace Typické vlastnosti inteligentního systému: schopnost vnímat podněty z okolního
MATEMATICKÁ STATISTIKA - XP01MST
MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného
Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013
Ambasadoři přírodovědných a technických oborů Ing. Michal Řepka Březen - duben 2013 Umělé neuronové sítě Proč právě Neuronové sítě? K čemu je to dobré? Používá se to někde v praxi? Úvod Umělé neuronové
Základní spádové metody
Základní spádové metody Petr Tichý 23. října 2013 1 Metody typu line search Problém Idea metod min f(x), f : x R Rn R. n Dána počáteční aproximace x 0. Iterační proces (krok k): (a) zvol směr d k, (b)
stránkách přednášejícího.
Předmět: MA 4 Dnešní látka Iterační metoda Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Superrelaxační metoda (metoda SOR) Metoda sdružených gradientů Četba: Text o lineární algebře v Příručce
vzorek1 0.0033390 0.0047277 0.0062653 0.0077811 0.0090141... vzorek 30 0.0056775 0.0058778 0.0066916 0.0076192 0.0087291
Vzorová úloha 4.16 Postup vícerozměrné kalibrace Postup vícerozměrné kalibrace ukážeme na úloze C4.10 Vícerozměrný kalibrační model kvality bezolovnatého benzinu. Dle následujících kroků na základě naměřených
Neuronové sítě v DPZ
Univerzita J. E. Purkyně v Ústí nad Labem Fakulta životního prostředí Neuronové sítě v DPZ Seminární práce z předmětu Dálkový průzkum Země Vypracovali: Jan Lantora Rok: 2006 Zuzana Vašková Neuronové sítě
Úlohy nejmenších čtverců
Úlohy nejmenších čtverců Petr Tichý 7. listopadu 2012 1 Problémy nejmenších čtverců Ax b Řešení Ax = b nemusí existovat, a pokud existuje, nemusí být jednoznačné. Často má smysl hledat x tak, že Ax b.
algoritmus»postup06«p e t r B y c z a n s k i Ú s t a v g e o n i k y A V
Hledání lokálního maxima funkce algoritmus»postup06«p e t r B y c z a n s k i Ú s t a v g e o n i k y A V Č R Abstrakt : Lokální maximum diferencovatelné funkce je hledáno postupnou změnou argumentu. V
Statistická analýza dat
Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte
Samoučící se neuronová síť - SOM, Kohonenovy mapy
Samoučící se neuronová síť - SOM, Kohonenovy mapy Antonín Vojáček, 14 Květen, 2006-10:33 Měření a regulace Samoorganizující neuronové sítě s učením bez učitele jsou stále více využívány pro rozlišení,