Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby
|
|
- František Vítek
- před 6 lety
- Počet zobrazení:
Transkript
1 Algoritmy a struktury neuropočítačů ASN P4 Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby Vrstevnatá struktura - vícevrstvé NN (Multilayer NN, MLNN) vstupní vrstva (input layer) - jedna skryté vrstvy (hidden layers) - jedna a více výstupní vrstva (output layer) - jedna neurony (matematické procesory) jsou sestavené do vrstev Úkol: zpracování, uchování, přenos informace Rozlišení podle propojení neuronů ve vrstvách: sítě s dopředným šířením informace (feedforward) rekurentní sítě (recurrent networks) informace se šíří v dopředném směru + formou jednoduchých nebo vícenásobných zpětných vazeb
2 propojení zprostředkovávají synaptické váhy neurony - McCulloch-Pittova typu, v sousedních vrstvách úplně propojené heteroasociativní sítě s učitelem je požadována znalost cílové hodnoty resp. hodnot Vícevrstvé sítě - velká skupina paradigmat: společný název pro topologii a algoritmus učení Příklady: Rosenblattův model Perceptronu, vícevrstvý Perceptron, Widrow-Hoffova ADALINE, MADALINE Viz a Tučková,J.: Úvod do teorie a aplikací umělých neuronových sítí. Skripta FEL ČVUT v Praze, vyd. ČVUT, 2005, ISBN
3 vstupní data do MLNN nejsou omezena požadavkem lineární separovatelnosti možnost klasifikace do více tříd Separace podmnožin dat pomocí a) jednoduchého perceptronu b) dvojvrstvé NN bez skryté vrstvy c) třívrstvé NN (s 1 skrytou vrstvou) Přibližný odhad počtu učebních vzorů (patterns): N p N e w e přesnost N p počet vzorků N w počet vah Příklad: MLNN obsahuje 80 vah a prahů, pro chybu 0.1 je třeba 800 vzorů závisí na konkrétní architektuře
4 Neuronové sítě s učitelem (supervised learning) Vícevrstvá síť s dopředným šířením signálu neurony ve stejné vrstvě nejsou propojeny Algoritmus učení: zpětné šíření chyby (error back-propagation) vsupní vrstva 1. skrytá vrstva 2. skrytá vrstva výstupní vrstva vstupy výstupy supervizor Pozn.: práh (bias) je nulový.
5 MLNN univerzální aproximátory jsou schopny aproximovat jakoukoliv měřitelnou funkci s požadovanou přesností úspěšnost natrénování závisí na : výběru algoritmu učení dostatečném počtu skrytých neuronů existujícím vztahu mezi vstupními daty a požadovanými hodnotami koeficient konvergence roste s počtem skrytých neuronů koeficient poklesu počtu skrytých neuronů závisí na poklesu vstupní dimenze při konstantní přesnosti skryté neurony obecně nelineární aktivační funkce
6 rekurentní vazba kontextová vrstva Elmanova částečně rekurentní NS SRN Simple Recurent Network výstup vstup EN Elman Networks skrytá vrstva
7 EN sítě mají schopnost zapamatovat si data vstupující do neuronové sítě v předchozím kroku učení. Síť rozumí kontextu. Je vhodná k řešení úloh, ve kterých jsou data závislá prostorově i časově (zpracování řečového signálu). Funkce EN: 1) Do EN vstupují současně vstupní data a výstupní data z předchozích stavů. Informace z předchozích stavů jsou přiváděny do tzv. kontextové (rekurentní) vrstvy. 2) Kontextová vrstva = část vstupní vrstvy, propojení ze skryté do vstupní vrstvy rekurence HIF (Hidden-Input Feedback) 3) Kontextová vrstva = část vstupní vrstvy, propojení z výstupní do vstupní vrstvy rekurence OIF (Output-Input Feedback) 4) Kontextová vrstva = část skryté vrstvy, propojení z výstupní do skryté vrstvy rekurence OHF (Output-Hidden Feedback)
8 Skrytá vrstva - obecně libovolný počet neuronů!!! dobře natrénovaná síť řešící reálné problémy má mít větší počet skrytých neuronů, než MLNN!!! Např. : úlohy rozpoznání řeči - kolem neuronů. Volba aktivačních funkcí žádné speciální požadavky. Obvykle: rostoucí nelineární funkce Zobecnění EN - neuronová síť se zpětným šířením chyby v závislosti na čase Back Propagation Through Time BPTT Tento algoritmus umožnuje řešit časové závislosti změny dat, používá se pro zpracování číslicových signálů, při rozpoznání řeči nebo při predikci časových řad. Pracuje jen v dávkovém módu, je náročná na paměť.
9 Chybové učení (error-correction learning) učení s učitelem hodnoty vah se nastavují úměrně k chybě mezi požadovanými a vypočtenými hodnotami w i j = (t j - y j ) x i lineární optimalizace účelové funkce Rozdíl predikovaných a požadovaných hodnot U N min y i t i j i1 x j 2 j = 1,,k N počet vektorů y i výstup ze sítě t i cílová hodnota x j parametry, j = 1,,k Řešení: metoda nejmenších čtverců
10 Metoda minimaxu Čebyševova (minimalizace maximální odchylky) U Výběr vzorů min max y i t i x j p j j = 1,,k sekvenčně náhodně opakovaně learning rate modifikace vah: W i j (t+1) = W i j (t) + e j x i chyba na výstupu e j = y j (1 - y j )(t j - y j ) chyba ve skryté vrstvě e j = x j (1 - x j ) S k e k W j k Algoritmus zpětného šíření chyby BP (error back propagation) dnes jeden z nejužívanějších, aplikovaný ve vícevrstvých sítích s učitelem algoritmus iterační, gradientní minimalizace celkové chyby pro všechny vzory
11 Rozhodovací funkce (cost function) energetická funkce je rovna střední kvadratické chybě mezi požadovaným a skutečným výstupem Aktivační funkce - spojitá diferencovatelná nelineární míra naučenosti : velikost globální chyby m počet výstupů m E g = 0.5 ( y j - T j ) 2 j1 Problémy : nevhodná volba parametrů učení nereprezentativní treninková množina nevhodná inicializace vah a prahů např. nevhodná volba rychlosti učení (learning rate) oscilace - přeskočení malých lokálních minim
12 Základní učení využívá pouze adaptaci synaptických vah, prahy a parametry přenosových funkcí se nemění. Pouze jeden optimalizační parametr rychlost učení délka kroku (learning rate) Modifikované metody dovolují adaptovat rychlost učení, adaptovat prahy i sklon přenosových funkcí, používají více optimalizačních parametrů, např. moment rozhodují tak o výkonnosti procesu učení rychlejší konvergence, snížení pravděpodobnosti uvíznutí v tzv. lokálním minimu
13 Inicializace malými náhodnými čísly (nejčastěji) inicializují se váhy a prahy ve všech vrstvách Aktivační (přenosová) funkce ve skrytých vrstvách nelineární (sigmoida, hyperbolická tangenta) ve výstupní vrstvě lineární i nelineární sigmoida - výstup nabývá malých hodnot lineární funkce - výstup nabývá libovolnou hodnotu nutná podmínka : aktivační funkce musí být diferencovatelná Podstata učení - minimalizace sumy čtverců chyb (sum-squared error) Trénink - probíhá do té doby, dokud není dosažena minimální chyba dokud neproběhly všechny epochy volba koeficientu učení (learning rate) : 0 < lr < 1 malé hodnoty pomalé učení větší pravděpodobnost, že nebude přeskočeno lokální minimum
14 Vícevrstvé sítě s učením zpětného šíření chyby BPG (Error Back-propagation Algorithm Back-propagation of Gradient Algorithm) dopředné propojení a šíření signál heteroasociativní sítě s učitelem (je požadována znalost cílových hodnot) off-line učení počítají se synaptické váhy a prahy batch training pro všechny tréninkové vzorky, modifikace vah až po přivedení všech vzorků do sítě, počítá se aktuální gradient chyby E pro úplnou množinu tréninkových vzorků on-line učení - váhy a prahy jsou modifikovány incremental bezprostředně po přivedení každého training tréninkového vzorku, proces konverguje stochasticky k lokálním minimům a nezaručuje dosažení absolutního minima
15 Princip: 1) Na vstup NS je přiváděn vektor resp. matice vstupních parametrů - číselné hodnoty pro konkrétní hodnoty fyzikálních veličin - kategoriální data (přiřazení kategorie určité vlastnosti, číselná hodnota udává váhu dané vlastnosti vzhledem k ostatním). 2) Po průchodu sítí je spočítán výstup z každého neuronu a výsledek je porovnán s požadovanou hodnotou. 3) Je spočítána chyba, ta se zpětně přepočítává do předchozích vrstev a synaptické váhy představující paměť jsou opraveny. 4) Do opravené sítě je znovu přiveden vstupní vektor resp. matice a proces se opakuje. Iterativní proces, hledání minima chyby mezi skutečnou (výstupní) hodnotou a požadovanou hodnotou. Nevýhoda: velká citlivost na relevantnost vstupních dat a na inicializaci synaptických vah.
16 minimalizace rozhodovací funkce (energetická funkce, cost function): gradientní metoda rozhodovací funkce - střední kvadratická chyba mezi požadovaným a skutečným výstupem aktivační funkce - spojitá diferencovatelná nelineární funkce (např. sigmoida nebo hyperbolická tangenta)
17 Jak nastavit váhy a prahy NN? Pro NN, která dosud nebyla učena, je vhodné použít pro inicializaci funkce typu sigmoida malá náhodná čísla, aby derivace funkce nenabývala malých hodnot (při velkých hodnotách parametrů dochází k saturaci a síť se přestává adaptovat). Naopak - velké hodnoty derivací jsou vhodné pro aktivační funkce Gaussova typu. Pro aktivační funkce typu hyperbolická tangenta se doporučuje (Nguyen a Widrow) - β wi j β, β = 0.7 ( p ) 1/ n n počet neuronů ve vstupní vrstvě, p počet neuronů ve skryté vrstvě
Umělé neuronové sítě
Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační
Algoritmy a struktury neuropočítačů ASN - P1
Algoritmy a struktury neuropočítačů ASN - P1 http://amber.feld.cvut.cz/ssc www.janatuckova.cz Prof.Ing. Jana Tučková,CSc. Katedra teorie obvodů K331 kancelář: 614, B3 tel.: 224 352 098 e-mail: tuckova@fel.cvut.cz
Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy
Algoritmy a struktury neuropočítačů ASN - P2 Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy Topologie neuronových sítí (struktura, geometrie, architektura)
5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015
Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační
Vytěžování znalostí z dat
Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 1/26 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information
Trénování sítě pomocí učení s učitelem
Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup
Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc
Neuronové sítě a možnosti jejich využití Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc 1. Biologický neuron Osnova 2. Neuronové sítě Umělý neuron
Úvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně
Aplikace UNS v biomedicíně aplikace v medicíně postup při zpracování úloh Aplikace UNS v medicíně Důvod: nalezení exaktnějších, levnějších a snadnějších metod určování diagnóz pro lékaře nalezení šetrnějších
Neuronové sítě Ladislav Horký Karel Břinda
Neuronové sítě Ladislav Horký Karel Břinda Obsah Úvod, historie Modely neuronu, aktivační funkce Topologie sítí Principy učení Konkrétní typy sítí s ukázkami v prostředí Wolfram Mathematica Praktické aplikace
Rosenblattův perceptron
Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného
1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15
Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních
Pokročilé metody učení neuronových sítí. Tomáš Řehořek tomas.rehorek@fit.cvut.cz
Pokročilé metody učení neuronových sítí Tomáš Řehořek tomas.rehorek@fit.cvut.cz Problém učení neuronové sítě (1) Nechť N = (V, I, O, S, w, f, h) je dopředná neuronová síť, kde: V je množina neuronů I V
3. Vícevrstvé dopředné sítě
3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze
Využití neuronové sítě pro identifikaci realného systému
1 Portál pre odborné publikovanie ISSN 1338-0087 Využití neuronové sítě pro identifikaci realného systému Pišan Radim Elektrotechnika 20.06.2011 Identifikace systémů je proces, kdy z naměřených dat můžeme
NG C Implementace plně rekurentní
NG C Implementace plně rekurentní neuronové sítě v systému Mathematica Zdeněk Buk, Miroslav Šnorek {bukz1 snorek}@fel.cvut.cz Neural Computing Group Department of Computer Science and Engineering, Faculty
Algoritmy a struktury neuropočítačů ASN - P11
Aplikace UNS při rozpoznání obrazů Základní úloha segmentace obrazu rozdělení obrazu do několika významných oblastí klasifikační úloha, clusterová analýza target Metody Kohonenova metoda KSOM Kohonenova
Zpracování biologických signálů umělými neuronovými sítěmi
Zpracování biologických signálů umělými neuronovými sítěmi Jana Tučková Katedra teorie obvodů - Laboratoř umělých neuronových sítí FEL ČVUT v Praze tuckova@fel.cvut.cz http://amber.feld.cvut.cz/user/tuckova
výběr charakteristických rysů a zkušeností ze vstupních signálů,
Kapitola 3 Algoritmy učení Proces učení (trénink) je ve své podstatě optimalizační proces, ve kterém optimalizujeme tzv. účelovou funkci. To je chybová funkce při učení s učitelem (vyjadřuje vzájemnou
přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat
Zkouška ISR 2013 přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat 1. Rozdílné principy u induktivního a deduktivního
Emergence chování robotických agentů: neuroevoluce
Emergence chování robotických agentů: neuroevoluce Petra Vidnerová, Stanislav Slušný, Roman Neruda Ústav Informatiky, AV ČR Kognice a umělý život VIII Praha 28. 5. 2008 Evoluční robotika: EA & neuronové
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.
Základní pojmy z oblasti neuronových sítí Zde je uveden přehled některých základních pojmů z oblasti neuronových sítí. Tento přehled usnadní studium a pochopení předmětu. ADALINE - klasická umělá neuronová
Neuronové sítě v DPZ
Univerzita J. E. Purkyně v Ústí nad Labem Fakulta životního prostředí Neuronové sítě v DPZ Seminární práce z předmětu Dálkový průzkum Země Vypracovali: Jan Lantora Rok: 2006 Zuzana Vašková Neuronové sítě
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík,, CSc. NEURONOVÉ SÍTĚ otázky a odpovědi 1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma
AVDAT Nelineární regresní model
AVDAT Nelineární regresní model Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Nelineární regresní model Ey i = f (x i, β) kde x i je k-členný vektor vysvětlujících proměnných
Preceptron přednáška ze dne
Preceptron 2 Pavel Křížek Přemysl Šůcha 6. přednáška ze dne 3.4.2001 Obsah 1 Lineární diskriminační funkce 2 1.1 Zobecněná lineární diskriminační funkce............ 2 1.2 Učení klasifikátoru........................
Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44
Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný
Algoritmy a struktury neuropočítačů ASN P3
Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností
Neuropočítače. podnět. vnímání (senzory)
Neuropočítače Princip inteligentního systému vnímání (senzory) podnět akce (efektory) poznání plánování usuzování komunikace Typické vlastnosti inteligentního systému: schopnost vnímat podněty z okolního
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
Numerické metody a programování. Lekce 8
Numerické metody a programování Lekce 8 Optimalizace hledáme bod x, ve kterém funkce jedné nebo více proměnných f x má minimum (maximum) maximalizace f x je totéž jako minimalizace f x Minimum funkce lokální:
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013
Ambasadoři přírodovědných a technických oborů Ing. Michal Řepka Březen - duben 2013 Umělé neuronové sítě Proč právě Neuronové sítě? K čemu je to dobré? Používá se to někde v praxi? Úvod Umělé neuronové
UČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
Základní spádové metody
Základní spádové metody Petr Tichý 23. října 2013 1 Metody typu line search Problém Idea metod min f(x), f : x R Rn R. n Dána počáteční aproximace x 0. Iterační proces (krok k): (a) zvol směr d k, (b)
5. Umělé neuronové sítě. Neuronové sítě
Neuronové sítě Přesný algoritmus práce přírodních neuronových systémů není doposud znám. Přesto experimentální výsledky na modelech těchto systémů dávají dnes velmi slibné výsledky. Tyto systémy, včetně
Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:
Neuronové sítě V prezentaci jsou použity podklady z řady zdrojů (Marcel Jiřina, Dan Novák, Jean- Christophe Prévotet, Petr Berka, Jana Tučková a další) Neuronové sítě Jsou inspirovány poznatky o neuronech
Numerické metody optimalizace - úvod
Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu
IBM SPSS Neural Networks
IBM Software IBM SPSS Neural Networks Nové nástroje pro tvorbu prediktivních modelů Aby mohla Vaše organizace zlepšit rozhodovaní ve všech procesních postupech, potřebuje odhalit vztahy a souvislosti v
PREDIKCE POČTU UCHAZEČŮ O STUDIUM S VYUŽITÍM NEURONOVÝCH SÍTÍ
PREDIKCE POČTU UCHAZEČŮ O STUDIUM S VYUŽITÍM NEURONOVÝCH SÍTÍ P. Matušík Evropský polytechnický institut, s.r.o, Osvobození 699, 686 04 Kunovice Abstract Neuronové sítě se v době využívají v řadě vědních
2. RBF neuronové sítě
2. RBF neuronové sítě Kapitola pojednává o neuronových sítích typu RBF. V kapitole je popsána základní struktura tohoto typu neuronové sítě. Poté následuje definice a charakteristika jednotlivých radiálně
Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu
Neuronové sítě L. Horký*, K. Břinda** Fakulta jaderná a fyzikálně inženýrská, Břehová 7, 115 19 Praha 1 *horkyladislav@seznam.cz, **brinda@fjfi.cvut.cz Abstrakt Cílem našeho příspěvku je získat uživatelský
Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky
Neuronové sítě AIL002 Iveta Mrázová 1 František Mráz 2 1 Katedra softwarového inženýrství 2 Kabinet software a výuky informatiky Do LATEXu přepsal: Tomáš Caithaml Učení s učitelem Rozpoznávání Použití:
Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague
1 / 40 regula Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague regula 1 2 3 4 5 regula 6 7 8 2 / 40 2 / 40 regula Iterační pro nelineární e Bud f reálná funkce
Čebyševovy aproximace
Čebyševovy aproximace Čebyševova aproximace je tzv hledání nejlepší stejnoměrné aproximace funkce v daném intervalu Hledáme funkci h x, která v intervalu a,b minimalizuje maximální absolutní hodnotu rozdílu
Speciální struktury číslicových systémů ASN P12
Aplikace UNS v syntéze řeči modelování prozodie druhy syntezátorů Umělé neuronové sítě pro modelování prozodie Rozdíly mezi přirozenou a syntetickou řečí Požadavky: zlepšování srozumitelnosti zlepšování
Moderní systémy pro získávání znalostí z informací a dat
Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:
Úloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
Neuronové sítě Učení bipolárního perceptronu
Neuronové sítě Učení bipolárního perceptronu Základní pojmy bipolární perceptron vstupy a výstupy jsou ± Učení: vycházíme z kladných a záporných vzorů a učíme váhy w, w,..., w n ( n ) y = sign w k x k,
Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:
Neuronové sítě V prezentaci jsou použity podklady zřady zdrojů (Marcel Jiřina, Dan Novák, Jean- Christophe Prévotet, Petr Berka, Jana Tučková a další) Neuronové sítě Jsou inspirovány poznatky o neuronech
Přednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma
Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky
Aproximace funkcí. x je systém m 1 jednoduchých, LN a dostatečně hladkých funkcí. x c m. g 1. g m. a 1. x a 2. x 2 a k. x k b 1. x b 2.
Aproximace funkcí Aproximace je výpočet funkčních hodnot funkce z nějaké třídy funkcí, která je v určitém smyslu nejbližší funkci nebo datům, která chceme aproximovat. Třída funkcí, ze které volíme aproximace
Zpětnovazební učení Michaela Walterová Jednoocí slepým,
Zpětnovazební učení Michaela Walterová Jednoocí slepým, 17. 4. 2019 V minulých dílech jste viděli Tři paradigmata strojového učení: 1) Učení s učitelem (supervised learning) Trénovací data: vstup a požadovaný
PV021 Vícevrstvá neuronová síť pro rozeznávání mikroteček. Matúš Goljer, Maroš Kucbel, Michal Novotný, Karel Štěpka 2011
PV021 Vícevrstvá neuronová síť pro rozeznávání mikroteček Matúš Goljer, Maroš Kucbel, Michal Novotný, Karel Štěpka 2011 Úkol sítě Rozeznávat obrázky obsahující fluorescenční mikrotečky od obrázků s nespecifickým
PV021: Neuronové sítě. Tomáš Brázdil
1 PV021: Neuronové sítě Tomáš Brázdil Cíl předmětu 2 Na co se zaměříme Základní techniky a principy neuronových sítí (NS) Přehled základních modelů NS a jejich použití Co si (doufám) odnesete Znalost základních
Úvod do optimalizace Matematické metody pro ITS (11MAMY)
Úvod do optimalizace Matematické metody pro ITS (11MAMY) Jan Přikryl (volně dle M.T. Heathe) 10. přednáška 11MAMY úterý 22. března 2016 verze: 2016-04-01 16:10 Obsah Optimalizační problém 1 Definice 1
1 0 0 u 22 u 23 l 31. l u11
LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23
OSA. maximalizace minimalizace 1/22
OSA Systémová analýza metodika používaná k navrhování a racionalizaci systémů v podmínkách neurčitosti vyšší stupeň operační analýzy Operační analýza (výzkum) soubor metod umožňující řešit rozhodovací,
Neuronové časové řady (ANN-TS)
Neuronové časové řady (ANN-TS) Menu: QCExpert Prediktivní metody Neuronové časové řady Tento modul (Artificial Neural Network Time Series ANN-TS) využívá modelovacího potenciálu neuronové sítě k predikci
aneb jiný úhel pohledu na prvák
Účelná matematika aneb jiný úhel pohledu na prvák Jan Hejtmánek FEL, ČVUT v Praze 24. června 2015 Jan Hejtmánek (FEL, ČVUT v Praze) Technokrati 2015 24. června 2015 1 / 18 Outline 1 Motivace 2 Proč tolik
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA STROJNÍHO INŽENÝRSTVÍ FACULTY OF MECHANICAL ENGINEERING ÚSTAV AUTOMATIZACE A INFORMATIKY INSTITUTE OF AUTOMATION AND COMPUTER SCIENCE
Faster Gradient Descent Methods
Faster Gradient Descent Methods Rychlejší gradientní spádové metody Ing. Lukáš Pospíšil, Ing. Martin Menšík Katedra aplikované matematiky, VŠB - Technická univerzita Ostrava 24.1.2012 Ing. Lukáš Pospíšil,
Globální matice konstrukce
Globální matice konstrukce Z matic tuhosti a hmotnosti jednotlivých prvků lze sestavit globální matici tuhosti a globální matici hmotnosti konstrukce, které se využijí v řešení základní rovnice MKP: [m]{
Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU
Dálkový průzkum Země Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Klasifikace založené na strojovém učení Strojové učení je podoblastí umělé inteligence, zabývající se algoritmy
Statistická analýza dat
Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte
OPTIMALIZACE. (přehled metod)
OPTIMALIZACE (přehled metod) Typy optimalizačních úloh Optimalizace bez omezení Nederivační metody Derivační metody Optimalizace s omezeními Lineární programování Nelineární programování Globální optimalizace
Jednotlivé historické modely neuronových sítí
Jednotlivé historické modely neuronových sítí Tomáš Janík Vícevrstevná perceptronová síť opakování Teoretický model obsahue tři vrstvy perceptronů; každý neuron první vrstvy e spoen s každým neuronem z
KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ
KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ Marie Richterová 1, David Juráček 2 1 Univerzita obrany, Katedra KIS, 2 PČR MŘ Brno Abstrakt Článek se zabývá rozpoznáváním analogových a diskrétních
Aplikovaná numerická matematika
Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních
Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely
Učení bez učitele Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely Klastrování Kohonenovy mapy LVQ (Učení vektorové kvantizace) Zbývá: Hybridní modely (kombinace učení bez učitele
Neuronové sítě (11. přednáška)
Neuronové sítě (11. přednáška) Machine Learning Naučit stroje se učit O co jde? Máme model výpočtu (t.j. výpočetní postup jednoznačně daný vstupy a nějakými parametry), chceme najít vhodné nastavení parametrů,
Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů
Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci
vzorek1 0.0033390 0.0047277 0.0062653 0.0077811 0.0090141... vzorek 30 0.0056775 0.0058778 0.0066916 0.0076192 0.0087291
Vzorová úloha 4.16 Postup vícerozměrné kalibrace Postup vícerozměrné kalibrace ukážeme na úloze C4.10 Vícerozměrný kalibrační model kvality bezolovnatého benzinu. Dle následujících kroků na základě naměřených
D C A C. Otázka 1. Kolik z následujících matic je singulární? A. 0 B. 1 C. 2 D. 3
atum narození Otázka. Kolik z následujících matic je singulární? 4 A. B... 3 6 4 4 4 3 Otázka. Pro která reálná čísla a jsou vektory u = (,, 3), v = (3, a, ) a w = (,, ) lineárně závislé? A. a = 5 B. a
FAKULTA INFORMAČNÍCH TECHNOLOGIÍ
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA INFORMAČNÍCH TECHNOLOGIÍ ÚSTAV INFORMAČNÍCH SYSTÉMŮ FACULTY OF INFORMATION TECHNOLOGY DEPARTMENT OF INFORMATION SYSTEMS NEURONOVÉ SÍTĚ
Numerická stabilita algoritmů
Numerická stabilita algoritmů Petr Tichý 9. října 2013 1 Numerická stabilita algoritmů Pravidla v konečné aritmetice Pro počítání v konečné aritmetice počítače platí určitá pravidla, která jsou důležitá
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
OPTIMALIZACE A MULTIKRITERIÁLNÍ HODNOCENÍ FUNKČNÍ ZPŮSOBILOSTI POZEMNÍCH STAVEB D24FZS
OPTIMALIZACE A MULTIKRITERIÁLNÍ HODNOCENÍ FUNKČNÍ ZPŮSOBILOSTI POZEMNÍCH STAVEB Optimalizace a multikriteriální hodnocení funkční způsobilosti pozemních staveb Anotace: Optimalizace objektů pozemních staveb
VYUŽITÍ UMĚLÉ NEURONOVÉ SÍTĚ PRO EMPIRICKÝ MODEL ŠÍŘENÍ SIGNÁLU
VYUŽITÍ UMĚLÉ NEURONOVÉ SÍTĚ PRO EMPIRICKÝ MODEL ŠÍŘENÍ SIGNÁLU Luděk ZÁVODNÝ, Stanislav HANUS Ústav radioelektroniky, Fakulta elektrotechniky a komunikačních technologií Vysoké učení technické v Brně
Co je obsahem numerických metod?
Numerické metody Úvod Úvod Co je obsahem numerických metod? Numerické metody slouží k přibližnému výpočtu věcí, které se přesně vypočítat bud nedají vůbec, nebo by byl výpočet neúměrně pracný. Obsahem
VYUŽITÍ NEURONOVÝCH SÍTÍ V DIAGNOSTICE
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA STROJNÍHO INŽENÝRSTVÍ ÚSTAV VÝROBNÍCH STROJŮ SYSTÉMŮ A ROBOTIKY FACULTY OF MECHANICAL ENGINEERING INSTITUTE OF PRODUCTION MACHINES, SYSTEMS
Inovace bakalářského studijního oboru Aplikovaná chemie
http://aplchem.upol.cz CZ.1.07/2.2.00/15.0247 Tento projekt je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky. Regrese Závislostproměnných funkční y= f(x) regresní y= f(x)
Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005
Rozpoznávání písmen Jiří Šejnoha Rudolf Kadlec (c) 2005 Osnova Motivace Popis problému Povaha dat Neuronová síť Architektura Výsledky Zhodnocení a závěr Popis problému Jedná se o praktický problém, kdy
Numerické řešení nelineárních rovnic
Numerické řešení nelineárních rovnic Mirko Navara http://cmp.felk.cvut.cz/ navara/ Centrum strojového vnímání, katedra kybernetiky FEL ČVUT Karlovo náměstí, budova G, místnost 104a http://math.feld.cvut.cz/nemecek/nummet.html
Samoučící se neuronová síť - SOM, Kohonenovy mapy
Samoučící se neuronová síť - SOM, Kohonenovy mapy Antonín Vojáček, 14 Květen, 2006-10:33 Měření a regulace Samoorganizující neuronové sítě s učením bez učitele jsou stále více využívány pro rozlišení,
Biofyzikální ústav LF MU Brno. jarní semestr 2011
pro obor Ošetřovatelská péče v gerontologii Biofyzikální ústav LF MU Brno jarní semestr 2011 Obsah letmý dotyk teorie systémů klasifikace a analýza biosignálů Co je signál? Co je biosignál? Co si počít
Typy příkladů na písemnou část zkoušky 2NU a vzorová řešení (doc. Martišek 2017)
Typy příkladů na písemnou část zkoušky NU a vzorová řešení (doc. Martišek 07). Vhodnou iterační metodou (tj. metodou se zaručenou konvergencí) řešte soustavu: x +x +4x 3 = 3.5 x 3x +x 3 =.5 x +x +x 3 =.5
Vysoka škola ekonomická v Praze Fakulta informatiky a statistiky. Rozpoznávání znaků z reálných scén pomocí neuronových sítí
Vysoka škola ekonomická v Praze Fakulta informatiky a statistiky Obor: informační a znalostní inženýrství Diplomová práce Rozpoznávání znaků z reálných scén pomocí neuronových sítí Diplomant: Bc. Petr
Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS
Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS Veronika NEVTÍPILOVÁ Gisáček 2013 Katedra Geoinformatiky Univerzita Palackého v Olomouci Cíle otestovat kvalitu interpolace pomocí
ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE
ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE FAKULTA STAVEBNÍ OBOR GEODÉZIE A KARTOGRAFIE KATEDRA VYŠŠÍ GEODÉZIE název předmětu úloha/zadání název úlohy Základy fyzikální geodézie 3/19 Legendreovy přidružené funkce
Toolbox pro neuronové sítě pro prostředí Mathematica
Toolbox pro neuronové sítě pro prostředí Mathematica Toolbox for Neural Networks in the environment Mathematica Bc. Martin Macháč Diplomová práce 2009 UTB ve Zlíně, Fakulta aplikované informatiky, 2009
K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder
K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami Josef Keder Motivace Předpověď budoucí úrovně znečištění ovzduší s předstihem v řádu alespoň několika hodin má význam
Časová a prostorová složitost algoritmů
.. Časová a prostorová složitost algoritmů Programovací techniky doc. Ing. Jiří Rybička, Dr. ústav informatiky PEF MENDELU v Brně rybicka@mendelu.cz Hodnocení algoritmů Programovací techniky Časová a prostorová
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA INFORMAČNÍCH TECHNOLOGIÍ ÚSTAV POČÍTAČOVÉ GRAFIKY A MULTIMÉDIÍ FACULTY OF INFORMATION TECHNOLOGY DEPARTMENT OF COMPUTER GRAPHICS AND
Princip gradientních optimalizačních metod
Princip gradientních optimalizačních metod Tomáš Kroupa 20. května 2014 Tento studijní materiál je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky. Obsah Úkol a základní
Statistika. Regresní a korelační analýza Úvod do problému. Roman Biskup
Statistika Regresní a korelační analýza Úvod do problému Roman Biskup Jihočeská univerzita v Českých Budějovicích Ekonomická fakulta (Zemědělská fakulta) Katedra aplikované matematiky a informatiky 2008/2009
Připomenutí co je to soustava lineárních rovnic
Připomenutí co je to soustava lineárních rovnic Příklad 2x 3y + z = 5 3x + 5y + 2z = 4 x + 2y z = 1 Soustava lineárních rovnic obecně Maticový tvar: a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a