Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Rozměr: px
Začít zobrazení ze stránky:

Download "Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze"

Transkript

1 Neuronové sítě Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretcé nformat Matematco-fzální faulta Unverzt Karlov v Praze

2 Vrstevnaté neuronové sítě (1) D: Neuronová síť e uspořádaná 6-tce M=(N,C,I,O,,t), de: N e onečná neprázdná množna neuronů, C N N e neprázdná množna orentovaných I O spoů mez neuron N e neprázdná množna vstupních neuronů N e neprázdná množna výstupních neuronů : C R e váhová funce t: N R e prahová funce ( R označue množnu reálných čísel) I. Mrázová: Neuronové sítě (NAIL00)

3 Vrstevnaté neuronové sítě () D: Vrstevnatá síť (BP-síť) B e neuronová síť s orentovaným aclcým grafem spoů. Jeí množna neuronů e tvořena posloupností l + vzáemně dsuntních podmnožn zvaných vrstv. První vrstva zvaná vstupní vrstva e množnou všech vstupních neuronů B, tto neuron nemaí v grafu spoů žádné předchůdce; ech vstupní hodnota x e rovna ech výstupní hodnotě. Poslední vrstva zvaná výstupní vrstva e množnou všech výstupních neuronů B; tto neuron nemaí v grafu spoů žádné následní. Všechn ostatní neuron zvané srté neuron sou obsažen ve zblých l vrstvách zvaných srté vrstv. I. Mrázová: Neuronové sítě (NAIL00) 3

4 Algortmus zpětného šíření (1) Cíl: naít taovou matc vah, terá b zaručovala pro všechn vstupní vzor z trénovací množn to, že sutečný výstup neuronové sítě bude stený ao eí požadovaný výstup Přtom není specfována an sutečná, an požadovaná atvta srtých neuronů. Pro onečnou množnu trénovacích vzorů lze celovou chbu vádřt pomocí rozdílu mez sutečným a požadovaným výstupem sítě u aždého předloženého vzoru. I. Mrázová: Neuronové sítě (NAIL00) 4

5 Algortmus zpětného šíření () Chbová funce vadřue odchlu mez sutečnou a požadovanou odezvou sítě: vzor 1 d p cílem procesu učení e mnmalzovat tuto, p odchlu na dané trénovací množně, p výstupní neuron požadovaná odezva sutečná odezva algortmus zpětného šíření (Bac-Propagaton) I. Mrázová: Neuronové sítě (NAIL00) 5

6 Vrstevnaté neuronové sítě (BP-sítě) V Ý S T U P V S T U P výpočet sutečné odezv pro daný vzor porovnání sutečné a požadované odezv adaptace vah a prahů prot gradentu chbové funce od výstupní vrstv směrem e vstupní I. Mrázová: Neuronové sítě (NAIL00) 6

7 BP-sítě: adaptační pravdla (1) Atualzace snaptcých vah prot směru gradentu: t 1 t t t. přírůste váh přspívaící mnmalzac chba na výstupu sítě potencál neuronu sutečný výstup váha spoe I. Mrázová: Neuronové sítě (NAIL00) 7

8 I. Mrázová: Neuronové sítě (NAIL00) 8 BP-sítě: adaptační pravdla () Atualzace snaptcých vah pro výstupní vrstvu: f d f

9 I. Mrázová: Neuronové sítě (NAIL00) 9 BP-sítě: adaptační pravdla (3) Atualzace snaptcých vah pro srté vrstv: f

10 BP-sítě: adaptační pravdla (4) Výpočet dervace sgmodální přenosové funce podle: Atualzace vah podle: f ( ξ ) = λ ( 1 ) t 1 t t t 1 m de d (1 (1 ) ) pro výstupní neuron pro srtý neuron I. Mrázová: Neuronové sítě (NAIL00) 10

11 Algortmus zpětného šíření (1) Kro 1: Zvolte náhodné hodnot snaptcých vah Kro : Předložte nový trénovací vzor ve tvaru: [vstup x, požadovaný výstup d ] Kro 3: Vpočtěte sutečný výstup atvta neuronů v aždé vrstvě e dána pomocí: f 1, de 1 e Tato vádřené atvt pa tvoří vstup následuící vrstv. I. Mrázová: Neuronové sítě (NAIL00) 11

12 Algortmus zpětného šíření () Kro 4: Atualzace vah Př úpravě snaptcých vah postupute směrem od výstupní vrstv e vstupní. Váh se adaptuí podle: t 1 t t t 1 (t). váha z neuronu do neuronu v čase t α, α m... parametr, resp. moment učení ( 0 α, α m 1 ) ξ, resp. δ. potencál, resp. chba na neuronu. ndex pro neuron z vrstv nad neuronem λ. strmost přenosové funce Kro 5: Před e Krou d m (1 ) (1 ) I. Mrázová: Neuronové sítě (NAIL00) 1 pro výstupní neuron pro srtý neuron

13 BP-sítě: analýza modelu Jeden z nepoužívaněších modelů Jednoduchý algortmus učení Poměrně dobré výsled Nevýhod: nterní reprezentace znalostí - černá sříňa chbová funce (znalost požadovaných výstupů) větší a vvážené trénovací množn ontrola výstupů sítě př rozpoznávání počet neuronů a generalzační schopnost sítě prořezávání a doučování I. Mrázová: Neuronové sítě (NAIL00) 13

14 BP-sítě: analýza modelu Nevýhod: větší a vvážené trénovací množn I. Mrázová: Neuronové sítě (NAIL00) 14

15 Algortmus zpětného šíření a urchlení učení (1) Standardní algortmus zpětného šíření e poměrně pomalý špatná volba počátečních parametrů ho může eště zpomalt Problém učení umělých neuronových sítí e obecně NP-úplný výpočetní náročnost roste exponencálně s počtem proměnných přesto dosahue standardní algortmus zpětného šíření často lepších výsledů než mnohé rchlé algortm - hlavně v případě, že má úloha realstcou úroveň složtost a velost trénovací množn přesáhne rtcou mez I. Mrázová: Neuronové sítě (NAIL00) 16

16 Algortmus zpětného šíření a urchlení učení () Algortm s cílem urchlt proces učení: Zachovávaící pevnou topolog sítě Modulární sítě Výrazně zlepšuí aproxmační schopnost neuronových sítí Adaptace parametrů (vah, prahů apod.) topologe sítě I. Mrázová: Neuronové sítě (NAIL00) 17

17 Algortmus zpětného šíření: volba počátečních vah (1) Váh b měl být rovnoměrně rozdělené na ntervalu < - α m, α m > Nulová střední hodnota vede na očeávanou nulovou hodnotu celového vstupu aždého neuronu sítě (potencálu) Maxmální hodnota dervace sgmodální přenosové funce pro nulu (~ 0.5) Větší hodnot šířené chb Výrazněší změn vah na začátu učení I. Mrázová: Neuronové sítě (NAIL00) 18

18 Algortmus zpětného šíření: volba počátečních vah () Problém: Přílš malé váh paralzuí učení Chba šířená z výstupní vrstv směrem do srtých vrstev e přílš malá Přílš velé váh vedou saturac neuronů a pomalému učení (v plochých zónách chbové funce Proces učení e pa uončen v suboptmálním loálním mnmu Správná volba počátečních vah může rzo uvíznutí v loálním mnmu výrazně snížt I. Mrázová: Neuronové sítě (NAIL00) 19

19 Algortmus zpětného šíření: volba počátečních vah (3) Omezení loálních mnm: ~ ncalzace malým náhodným hodnotam Motvace: Malé hodnot vah Velé absolutní hodnot vah způsobuí saturac srtých neuronů (hodně atvní nebo naopa hodně pasvní pro všechn trénovací vzor) nelze e dále učt (dervace přenosové funce sgmod e téměř nulová) Náhodné hodnot vah Cílem e omezt smetr srté neuron b neměl mít navzáem podobnou func I. Mrázová: Neuronové sítě (NAIL00) 0

20 Algortmus zpětného šíření: volba počátečních vah (4) IDA: Potencál srtého neuronu e dán pomocí: ξ = x n x n x atvta -tého neuronu z předchozí vrstv váha od -tého neuronu z předchozí vrstv Střední hodnota potencálu srtého neuronu: x x 0 0 váh sou nezávslé na vzorech n 0 váh sou náhodné proměnné se střední hodnotou 0 n I. Mrázová: Neuronové sítě (NAIL00) 1

21 I. Mrázová: Neuronové sítě (NAIL00) Algortmus zpětného šíření: volba počátečních vah (5) IDA - poračování: Rozptl potencálu ξ e dán pomocí: 0 0, 0 0 n n n x x x x vzáemná nezávslost pro všechna = 0

22 Algortmus zpětného šíření: volba počátečních vah (5) IDA - poračování: Další předpolad: trénovací vzor sou normalzované a leží v ntervalu < 0, 1 >. Potom: x sou-l váh srtých neuronů taé náhodné proměnné se střední hodnotou 0 rovnoměrně rozložené v ntervalu [-a,a]. Potom: N počet vah vedoucích danému neuronu 1 0 x d x 3 a a 3 a d 3 3 a a x 3 3 I. Mrázová: Neuronové sítě (NAIL00)

23 Algortmus zpětného šíření: volba počátečních vah (6) IDA - poračování: Směrodatná odchla ted bude odpovídat: a 3 A N a a a A 3 N Potencál neuronu b měla být náhodná proměnná se směrodatnou odchlou A (navíc nezávslou na počtu vah vedoucích do tohoto neuronu); Počáteční váh b měl být volen (zhruba) z ntervalu: A, N 3 N 0.8 A resp N , 3 N specálně pro A = 1 velý gradent (t. rchlé učení), 3 I. Mrázová: Neuronové sítě (NAIL00) 4 A A

24 Algortmus zpětného šíření s momentem (1) Mnmalzace chbové funce pomocí gradentní metod I. Mrázová: Neuronové sítě (NAIL00) 5

25 Algortmus zpětného šíření s momentem () Poud e pro danou úlohu mnmum chbové funce v úzém údolí, může vést sledování gradentu náhlým (častým a velým) osclacím během učení Řešení: zavést člen odpovídaící momentu Kromě atuální hodnot gradentu chbové funce e třeba vzít v úvahu předchozí změn parametrů (vah) Setrvačnost ~ měla b pomoc zamezt extrémním osclacím v úzých údolích chbové funce I. Mrázová: Neuronové sítě (NAIL00) 6

26 I. Mrázová: Neuronové sítě (NAIL00) 7 Algortmus zpětného šíření s momentem (3) Pro síť s n různým vaham 1,, n e změna váh v rou + 1 dána vztahem de: α.. parametr učení α m moment učení 1 1 m m

27 Algortmus zpětného šíření s momentem (4) Chceme-l urchlt onvergenc mnmu chbové funce: Zvětšt parametr učení až sté optmální hodnotě α, terá b vša stále eště vedla e onvergenc v procesu učení Zavedení momentu učení umožňue oslabt osclace v procesu učení Optmální hodnot α a α m závsí na charateru dané úloh I. Mrázová: Neuronové sítě (NAIL00) 8

28 I. Mrázová: Neuronové sítě (NAIL00) 9 Algortmus zpětného šíření s momentem (5) PŘÍKLAD: Lneární přenosová funce, p vzorů MINIMALIZAC : d d X d X X d X d X d X T T T T T p p n p n d d d x x x x X d n p X ;...vetor ; ) matce (...

29 Algortmus zpětného šíření s momentem (6) e vadratcá funce pomocí gradentní metod lze nalézt mnmum Interpretace: představue parabolod v n rozměrném prostoru; eho tvar e určen vlastním čísl orelační matce X T X Gradentní metoda dává nelepší výsled pro nedůležtěší os stené dél (prncpal axes) Poud se dél os hodně lší, vede gradentní metoda osclacím I. Mrázová: Neuronové sítě (NAIL00) 30

30 Algortmus zpětného šíření s momentem (7) Osclace pa lze omezt malým α a větším momentem učení α m přílš malé hodnot α nebezpečí loálních mnm přílš velé hodnot α nebezpečí osclací I. Mrázová: Neuronové sítě (NAIL00) 31

31 Algortmus zpětného šíření s momentem (8) V nelneárním případě e pro oblast vzdálené od loálního mnma gradent chbové funce téměř nulový možnost výstu osclací v taovém případě může pomoc větší parametr učení návrat e onvexním oblastem chbové funce Řešení: Adaptvní parametr učení Předzpracování trénovací množn deorelace vstupních vzorů (PCA, ) I. Mrázová: Neuronové sítě (NAIL00) 3

32 Algortmus zpětného šíření: stratege pro urchlení procesu učení (1) 1. Adaptvní parametr učení: loální parametr učení α pro aždou váhu adaptace vah podle: Varant algortmů: Slva & Almeda Delta-bar-delta Super SAB I. Mrázová: Neuronové sítě (NAIL00) 33

33 Algortmus Slv & Almed (1) Předpolad: síť má n vah Kvadratcá chbová funce: c1 1 c... c C Kro v tém směru mnmalzue c 1 1, sou onstant, teré závsí na hodnotě zmrazených proměnných v daném teračním bodě (c udává zařvení parabol) n n d I. Mrázová: Neuronové sítě (NAIL00) 34

34 Algortmus Slv & Almed () Heursta: URYCHLUJ, poud se za poslední dvě po sobě doucí terace nezměnlo znaméno parcální dervace ZPOMALUJ, poud se znaméno změnlo Δ () parcální dervace chbové funce podle váh v té terac α (0) počáteční hodnota parametru učení ( = 1,, n ) ncalzace malým náhodným hodnotam I. Mrázová: Neuronové sítě (NAIL00) 35

35 I. Mrázová: Neuronové sítě (NAIL00) 36 Algortmus Slv & Almed (3) V té terac se hodnota parametru učení atualzue pro další ro (pro aždou váhu) podle: Konstant u a d sou pevně zvolené ta, že u > 1 a d < 1 Adaptace vah podle: 0 estlže, 0 estlže, 1 ) ( 1 ) ( 1) ( d u

36 Algortmus Slv & Almed (4) Problém: Parametr učení roste lesá exponencálně vzhledem u a d Problém mohou nastat, estlže po sobě následue mnoho urchlovacích roů I. Mrázová: Neuronové sítě (NAIL00) 37

37 I. Mrázová: Neuronové sítě (NAIL00) 38 Algortmus Delta-bar-delta Větší důraz na urchlování (především z malých počátečních vah) tá terace: u, d předem zvolené pevné onstant Atualzace vah bez momentu: na 0 estlže, 0 estlže, ) ( 1 ) ( 1 ) ( 1) ( d u e onstanta de, 1 1

38 Algortmus Super SAB Adaptvní acelerační stratege pro algortmus zpětného šíření Řádově rchleší než původní algortmus zpětného šíření Poměrně stablní Robustní vzhledem volbě počátečních parametrů Vužívá momentu: Urchlení onvergence v plochých oblastech váhového prostoru V přírých oblastech váhového prostoru moment tlumí osclace způsobené změnou znaména gradentu I. Mrázová: Neuronové sítě (NAIL00) 39

39 Super SAB algortmus učení (1) α +... multplatvní onstanta pro zvětšování parametru učení (α + = 1.05) α -... multplatvní onstanta pro zmenšování parametru učení (α - = ) α START počáteční hodnota parametru α,, (α START = 1. ) α m... moment (α m = 0.3) Kro 1: nastav všechna α na počáteční hodnotu α START Kro : proveď Kro ( t ) algortmu zpětného šíření s momentem Kro 3: poud se nezměnlo znaméno dervace (podle ), zvětš parametr učení (proveď ) : α (t+1) = α + α (t+1) I. Mrázová: Neuronové sítě (NAIL00) 40

40 Super SAB algortmus učení (1) Kro 4: poud se změnlo znaméno dervace (podle ): - anulu předchozí změnu vah (terá způsobla změnu znaména gradentu): Δ ( t + 1 ) = - Δ ( t ) - zmenš parametr učení: α ( t + 1 ) = α ( t ) / α - - a polož: Δ ( t + 1 ) = 0 ( př dalším rou učení se pa nebude brát v úvahu změna z předchozího rou ) Kro 5: před e Krou I. Mrázová: Neuronové sítě (NAIL00) 41

41 Algortmus zpětného šíření: stratege pro urchlení procesu učení (). Algortm druhého řádu: berou v úvahu více nformací o tvaru chbové funce než en gradent zařvení chbové funce metod. řádu používaí vadratcou aproxmac chbové funce vetor všech vah sítě,, 1 n chbová funce Talorova řada pro aproxmac chbové funce : T 1 T h h h h I. Mrázová: Neuronové sítě (NAIL00) 4

42 I. Mrázová: Neuronové sítě (NAIL00) 43 Algortm druhého řádu (). Hessovsá matce ( n n ) parcálních dervací druhého řádu: n n n n n

43 Algortm druhého řádu (3) Gradent chbové funce (zdervováním h ): T T T h h Gradent b měl být nulový (hledá se mnmum ): 1 h ==> Netonovsé metod: Pracuí teratvně Atualzace vah v té terac podle: 1 1 Rchlá onvergence Problémem může být výpočet nverzní Hessovsé matce I. Mrázová: Neuronové sítě (NAIL00) 44

44 Algortm druhého řádu (4) Pseudonetonovsé metod: Pracuí se zednodušenou aproxmací Hessovsé matce V úvahu se berou pouze prv na dagonále: Ostatní prv Hessovsé matce sou vnulován Adaptace vah podle: 1 I. Mrázová: Neuronové sítě (NAIL00) 45

45 Algortm druhého řádu (5) Pseudonetonovsé metod: Odpadá potřebná nverze Hessovsé matce Metod dobře funguí, poud má chbová funce vadratcý tvar, v opačném případě vša mohou nastat problém Varant algortmů: Qucprop Levenberg-Marquardtův algrtmus I. Mrázová: Neuronové sítě (NAIL00) 46

46 Algortmus Qucprop (1) Bere v úvahu nformace. řádu Mnmalzační ro provádí pouze v ednom rozměru Informace o zařvení chbové funce ve směru adaptace se zísává ze současné a předchozí parcální dervace chbové funce Nezávslá optmalzace pro aždou váhu pomocí vadratcé ednorozměrné aproxmace chbové funce I. Mrázová: Neuronové sítě (NAIL00) 47

47 Algortmus Qucprop () Atualzace vah v té terac podle: 1, de 1 1 Předpolad: chbová funce bla spočtena v rou ( 1 ) a v rou, a to pro váh s rozdílem 1 - buď standardním algortmem zpětného šíření nebo pomocí algortmu Qucprop I. Mrázová: Neuronové sítě (NAIL00) 48

48 Algortmus Qucprop (3) Atualzac vah lze psát ao: Jmenovatel odpovídá dsrétní aproxmac parcální dervace. řádu Qucprop ~ pseudonetonovsá dsrétní metoda, terá používá tzv. SKANTOVÝ KROK 1 1 I. Mrázová: Neuronové sítě (NAIL00) 49

49 I. Mrázová: Neuronové sítě (NAIL00) 50 Levenberg-Marquardtův algortmus rchleší a přesněší v oblast mnma chbové funce ombnace gradentní a Netonov metod pro 1 výstup: d e g d e H I g mn 0 1 Hessovsá matce gradent

50 Algortmus zpětného šíření: stratege pro urchlení procesu učení (3) 3. Relaxační metod perturbace vah: V aždé terac se počítá dsrétní aproxmace gradentu porovnáním chbové funce pro výchozí váh a chbové funce pro mírně změněné váh ( váze bla přčtena malá perturbace β ) Atualzace vah pomocí: Atualzace se teratvně opaue pro vžd náhodně zvolenou váhu I. Mrázová: Neuronové sítě (NAIL00) 51

51 Relaxační metod () Alternatva s rchleší onvergencí: Perturbace výstupu tého neuronu o o Δo Vpočítá se rozdíl - Poud e rozdíl ladný ( > 0 ), lze nové chb dosáhnout výstupem o + Δo pro tý neuron V případě sgmodální přenosové funce, lze požadovaný potencál neuronu určt pomocí: pro m 1 s x 1 1 e s 1 o -1 e ξ s ln - I. Mrázová: Neuronové sítě (NAIL00) 5 o 1-

52 Relaxační metod (3) Poud bl předchozí potencál dán pomocí: s 1 Váh se adaptuí proporconálně e své velost: m o 1, sou nové váh ( to lze poněud omezt zavedením stochastcých fatorů anebo ombnací s metodou pro perturbac vah ) m 1 x x o I. Mrázová: Neuronové sítě (NAIL00) 53

53 Interní reprezentace znalostí počet neuronů a generalzační schopnost sítě prořezávání a doučování I. Mrázová: Neuronové sítě (NAIL00) 54

54 Interní reprezentace znalostí V Ý S T U P V S T U P I. Mrázová: Neuronové sítě (NAIL00) 55

55 Kondenzovaná nterní reprezentace V Ý S T U P V S T U P nterpretace atvt srtých neuronů: 1 atvní ANO 0 pasvní N 1 tchý nelze rozhodnout průhledná strutura sítě detece nadbtečných neuronů a prořezávání lepší generalzace I. Mrázová: Neuronové sítě (NAIL00) 56

56 Kondenzovaná nterní reprezentace D: Pro vrstevnatou síť B zpracovávaící vstupní vzor : x Srtý neuron s vaham ( 1,, n ), prahem ϑ, vstupním vzorem a přenosovou funcí f, z vtváří reprezentac r : r = = Vetor r f, z reprezentací vtvořených vrstvou srtých neuronů se nazývá nterní reprezentace x z I. Mrázová: Neuronové sítě (NAIL00) 57

57 Kondenzovaná nterní reprezentace D: Pro vrstevnatou síť B: Interní reprezentace r r,, bnární, estlže Interní reprezentace ondenzovaná, estlže r 0,1; m 1 r 1 r r,, 1 r m r m e e 0,0.5,1; m 1 I. Mrázová: Neuronové sítě (NAIL00) 58

58 Požadav na vnucování ondenzované nterní reprezentace formulace požadovaných vlastností ve formě cílové funce: G standardní chbová funce c F loální mnma reprezentační chbové funce s reprezentační chbová funce velost vlvu F na G odpovídaí atvním, pasvním a tchým stavům: F vzor p h srté neuron s 1 0. s h, p h, p h, p 5 pasvní stav tvar F atvní stav tchý stav I. Mrázová: Neuronové sítě (NAIL00) 59

59 reprezentaèní chba Vlv parametrů na vtváření ondenzované nterní reprezentace sutečný výstup neuronu t 1 t r t t 1 m pomaleší vtváření nterní reprezentace a požadovaná funce sítě stablta vtvářené nterní reprezentace a optmální archtetura sítě tvar reprezentační chbové funce, rchlost vtváření nterní reprezentace a eí forma časová náročnost př adaptac vah I. Mrázová: Neuronové sítě (NAIL00) 60

60 I. Mrázová: Neuronové sítě (NAIL00) 61 Chbový člen pro poslování ondenzované nterní reprezentace Kondenzovaná nterní reprezentace ( s ( 1 ) s ( ) ): proostatnísrténeuron ) (1 proneuron z nevššísrtévrstv 0.5 ) (1 ) (1 1 pro výstupníneuron 0 s s s s -

61 reprezentaèní chba Vlv parametrů na vtváření ondenzované nterní reprezentace sutečný výstup neuronu t 1 t r t t 1 m pomaleší vtváření nterní reprezentace a požadovaná funce sítě stablta vtvářené nterní reprezentace a optmální archtetura sítě tvar reprezentační chbové funce, rchlost vtváření nterní reprezentace a eí forma časová náročnost př adaptac vah I. Mrázová: Neuronové sítě (NAIL00) 6

62 reprezentační chba reprezentační chba reprezentační chba reprezentační chba Tvar reprezentační chbové funce 1 s 0. t s F s1 t 8e-05 s4 t e e e sutečný výstup neuronu sutečný výstup neuronu s8 t s5 t4 1.6e-07 1.e-07 8e-08 4e sutečný výstup neuronu 1e-06 8e-07 6e-07 4e-07 e sutečný výstup neuronu I. Mrázová: Neuronové sítě (NAIL00) 63

63 I. Mrázová: Neuronové sítě (NAIL00) 64 Chbový člen pro poslování bnární nterní reprezentace Bnární nterní reprezentace ( ( 1 ) ): proostatnísrténeuron ) (1 proneuron z nevššísrtévrstv ) (1 1 pro výstupníneuron 0 - -

64 Jednoznačná nterní prezentace Hodně odlšným výstupům b měl odpovídat hodně odlšné nterní reprezentace Formulace požadavů ve formě modfované cílové funce: G F Krtérum pro ednoznačnost IR: H 1 H d o, p do, q, p, q p vzor srté neuron q p o výst. neuron I. Mrázová: Neuronové sítě (NAIL00) 66 = onst. pro dané p = onst. pro dané p = onst. pro dané p

65 Prořezávání podle nterní reprezentace (1) D: Pro danou vrstevnatou síť B a množnu S vstupních vzorů určuících vstupní vetor : z Srtý neuron s vaham ( 1,, n ), prahem ϑ a přenosovou funcí f, z vtváří unformní reprezentac r, estlže: r f, z const pro všechn v stupní vzor x S I. Mrázová: Neuronové sítě (NAIL00) 67

66 Prořezávání podle nterní reprezentace () D: Pro danou vrstevnatou síť B a množnu S vstupních vzorů určuících vstupní vetor : f Srtý neuron N s vaham ( 1,, n ), prahem ϑ a přenosovou funcí f vtváří, z reprezentac r dentcou reprezentac r vtvářené srtým neuronem N s vaham ( 1,, n ), prahem ϑ a přenosovou funcí, estlže: z pro všechn v stupní, z f, vzor x S f, z I. Mrázová: Neuronové sítě (NAIL00) 68 z

67 Prořezávání podle nterní reprezentace (3) D: Pro danou vrstevnatou síť B a množnu S vstupních vzorů určuících vstupní vetor : f Srtý neuron N s vaham ( 1,, n ), prahem ϑ a přenosovou funcí f vtváří, z reprezentac r nverzní reprezentac r vtvářené srtým neuronem N s vaham ( 1,, n ), prahem ϑ a přenosovou funcí, estlže:, z 1 f, z pro všechn v stupní vzor x S I. Mrázová: Neuronové sítě (NAIL00) 69 f, z z

68 Prořezávání podle nterní reprezentace (4) D: Pro danou vrstevnatou síť B a množnu vstupních vzorů S : reduovaná vrstva e vrstva, pro terou platí, že: žádný neuron nevtváří unformní reprezentac, žádný neuron nevtváří reprezentac dentcou reprezentac vtvářené ným neuronem a žádný neuron nevtváří reprezentac nverzní reprezentac vtvářené ným neuronem. Interní reprezentace vtvářená reduovanou vrstvou se nazývá reduovaná. I. Mrázová: Neuronové sítě (NAIL00) 70

69 Prořezávání podle nterní reprezentace (5) D: Pro danou množnu vstupních vzorů S : - vrstevnatá síť B e reduovaná, estlže sou všechn eí srté vrstv reduované. - vrstevnatá síť B e evvalentní vrstevnaté sít B, estlže e pro lbovolný vstupní vzor x S sutečný výstup sítě B roven B sutečnému výstupu sítě B : B B B I. Mrázová: Neuronové sítě (NAIL00) 71

70 Prořezávání podle nterní reprezentace (6) V: Ke aždé vrstevnaté sít B a množně vstupních vzorů S exstue evvalentní reduovaná vrstevnatá síť B. Důaz (dea): Pops onstruce reduované vrstevnaté sítě B : Nechť B = ( N, C, I, O,, t ) e původní vrstevnatá síť. 1. Postupná elmnace všech taových neuronů, teré vtvářeí unformní reprezentac r a přčtení součnu r e všem prahům ϑ v následuící vrstvě. I. Mrázová: Neuronové sítě (NAIL00) 7

71 Prořezávání podle nterní reprezentace (7) Důaz (poračování):. Postupná elmnace všech taových neuronů, teré vtvářeí reprezentac r d dentcou reprezentac r vtvářené ným neuronem a přčtení vah e aždé váze, de e neuron v následuící vrstvě. 3. Postupná elmnace všech taových neuronů, teré vtvářeí reprezentac r n nverzní reprezentac r vtvářené ným neuronem a nahrazení všech vah, de označue neuron z následuící vrstv, rozdílem a přčtení váh prahu ϑ aždého neuronu. I. Mrázová: Neuronové sítě (NAIL00) 73

72 Prořezávání podle nterní reprezentace (8) Důaz (poračování): Potom bude pro lbovolný vstupní vzor sutečný výstup vrstevnaté sítě B roven sutečnému B výstupu vrstevnaté sítě B. Vrstevnatá síť B onstruovaná ze sítě B popsaným způsobem e reduovaná a evvalentní B. QD B x I. Mrázová: Neuronové sítě (NAIL00) 74

73 Výsled expermentů: bnární sčítání [ 5((1,-1,1)) + 3((-1,1,1)) = 8((1,-1,-1,-1)) ] SCG-s nápovědou (přenos na. výstupní neuron) přenos první a druhý výstupní bt srté neurons 1 a 3 funce ostatních srtých neuronů není ta zřemá SCGIR-s nápovědou (přenos na. výstupní neuron) přenos pro všší výstupní bt srté neuron 1, 3, 5 podobná funce e zřemá pro ednotlvé výstupní neuron I. Mrázová: Neuronové sítě (NAIL00) 75

74 Austcá emse: smulace (s M. Chladou a Z. Převorovsým) MODLOVANÝ SIGNÁL 1 WAV WAV WAV 3 0.3*WAV1 + 0.*WAV + 0.5*WAV I. Mrázová: Neuronové sítě (NAIL00) 76

75 Smulovaná A-data (s M. Chladou a Z. Převorovsým) KONVOLUC S GRNOVOU FUNKCÍ 0.05 GRN FUNCTION - 140mm 0.08 INPUT SIGNAL (a=0.3, b=0., c=0.5) I. Mrázová: Neuronové sítě (NAIL00) 77

76 PARAMTRS Model závslost (s M. Chladou a Z. Převorovsým) Celová ctlvost sítě (přes Q vzorů) s-tého výstupu na r-tý vstup: 1 sens r 1 Q q, s q, SNSITIVITY COFFICINTS... X4 = (X1) 4 X4 = (X1) q s r TARGT - PARAMTR I. Mrázová: Neuronové sítě (NAIL00) 78

77 PARAMTRS Model závslost (s M. Chladou a Z. Převorovsým) SNSITIVITY COFFICINTS... X4 = sn(9*x1) 1 X4 = sn(9*x1) TARGT - PARAMTR I. Mrázová: Neuronové sítě (NAIL00) 79

78 vstupní parametr INPUTS Fatorová vs. ctlvostní analýza vstupních parametrů (s M. Chladou a Z. Převorovsým) SNSITIVITY COFFICINTS OUTPUTS vbrané fator Vbráno 9 fatorů ( vsvětluí 98.4% proměnných) reduce lneárně závslých vstupních parametrů Vbráno 7 příznaů detece nelneární závslost vstupních parametrů (1, 3, 4, 5, 6, 13, 14) I. Mrázová: Neuronové sítě (NAIL00) 80

79 Analýza dat ze Světové ban WDI-ndátor (ndátor vývoe ve světě) aždoročně zveřeňován Světovou banou pomoc rozvoovým zemím př půčách / nvestcích odhad stavu eonom a ech vývoe v ednotlvých zemích původ údaů - neúplné a nepřesné údae používané techn regresní analýza - lneární závslost ategorzace států používaná v rozvnutých zemích(g. Ip, Wall Street Journal) ategorzace zemí podle HDP (Světová bana) Kohonenov map (T. Kohonen, S. Kas, G. Deboec) I. Mrázová: Neuronové sítě (NAIL00) 81

80 Analýza dat ze Světové ban: použté WDI-ndátor Implctní deflace HDP Vněší zadluženost (% HNP) Celové nálad na zadlužení (% z exportu zboží a služeb) xport hgh-tech technologí (% z vvážených výrobů) Výdae na armádu a zbroení (% HNP) Výdae na výz. a výv. (% HNP) Cel. výd. na zdrav. (% HDP) Veř. výd. na šolst. (% HNP) Očeávaná déla žvota u mužů Plodnost GINI-ndex (rozdělení přímů a spotřeb) Užv. nternetu na obvatel Počet moblních telefonů na 1000 obvatel HNP na obvatele podle part upní síl (PPP) HNP na obvatele (v USD) Růst HDP (% na obvatele) I. Mrázová: Neuronové sítě (NAIL00) 8

81 Analýza dat ze Světové ban: předzpracování 99 států se 16 WDI-ndátor po složách transformace vzorů do ntervalu (0,1) pomocí: x xmn 1 x a x 4( x x x 1 e max mn mnmum přes všechn vzor maxmum přes všechn vzor FCM-lastrování: 7 shluů, s 1.4 řízené učení a teratvní rozpoznávání: 99 (90+9) států s 14 (13+1) WDI-ndátor GRN-síť , BP-síť ; clů učení 1/ ) I. Mrázová: Neuronové sítě (NAIL00) 83

82 Analýza dat ze Světové ban: vlv ndátorů na stav eonom Indátor Síť 1 Síť GDP defl Vně. dluh Cel. nál. na dluh xport hgh-tech Voensé výdae Výdae na výz. a výv Užv. nternetu Mobl GINI-ndex Oče. déla žvota Plodnost Výdae na zdrav Veř. výd. na šolstv Relatvní ctlvost GRN-sítí Očeávaná déla žvota Venezuela Vetnam Urana tope H-tech xp. Výdae na V&V Iteratvní rozpoznávání všší HNP podle PPP (Síť 1) France Dánso Španělso ČR Polso I. Mrázová: Neuronové sítě (NAIL00) 84

83 ctlvost ctlvost ctlvost ctlvost Ctlvost na vstupní přízna (se Z. Retermanovou) průměrná ctlvost naučených sítí chudé stát přízna přízna všechn stát bohaté stát přízna přízna I. Mrázová: Neuronové sítě (NAIL00) 85

84 Vzáemná závslost parametrů (se Z. Retermanovou) Vzáemná závslost parametrů I. Mrázová: Neuronové sítě (NAIL00) 86

Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Neuronové sítě Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Neuronové sítě Interní reprezentace znalostí Doc. RNDr. Iveta Mrázová,

Více

Aplikace teorie neuronových sítí

Aplikace teorie neuronových sítí Aplace teore neuronových sítí Doc. RNDr. Iveta Mrázová, CSc. Katera teoretcé nformat Matematco-fzální faulta Unverzt Karlov v Praze Neuronové sítě Moulární archtetur Doc. RNDr. Iveta Mrázová, CSc. Katera

Více

Agregace vzájemné spojování destabilizovaných částic ve větší celky, případně jejich adheze na povrchu jiných materiálů

Agregace vzájemné spojování destabilizovaných částic ve větší celky, případně jejich adheze na povrchu jiných materiálů Agregace - úvod 1 Agregace vzáemné spoování destablzovaných částc ve větší cely, případně ech adheze na povrchu ných materálů Částce mohou agregovat, poud vyazuí adhezní schopnost a poud e umožněno ech

Více

Lokace odbavovacího centra nákladní pokladny pro víkendový provoz

Lokace odbavovacího centra nákladní pokladny pro víkendový provoz Markéta Brázdová 1 Lokace odbavovacího centra nákladní pokladny pro víkendový provoz Klíčová slova: odbavování záslek, centrum grafu, vážená excentrcta vrcholů sítě, časová náročnost odbavení záslky, vážená

Více

ANOVA. Analýza rozptylu při jednoduchém třídění. Jana Vránová, 3.lékařská fakulta UK, Praha

ANOVA. Analýza rozptylu při jednoduchém třídění. Jana Vránová, 3.lékařská fakulta UK, Praha ANOVA Analýza rozptylu př jednoduchém třídění Jana Vránová, 3.léařsá faulta UK, Praha Teore Máme nezávslých výběrů, > Mají rozsahy n, teré obecně nemusí být stejné V aždém z nch známe průměr a rozptyl

Více

EKONOMICKO-MATEMATICKÉ METODY

EKONOMICKO-MATEMATICKÉ METODY . přednáška EKONOMICKO-MATEMATICKÉ METODY Ekonomcko matematcké metody (též se užívá název operační analýza) sou metody s matematckým základem, využívané především v ekonomcké oblast, v oblast řízení a

Více

4. Třídění statistických dat pořádek v datech

4. Třídění statistických dat pořádek v datech 4. Třídění statstcých dat pořáde v datech Záladní členění statstcých řad: řada časová, řada prostorová, řada věcná věcná slovní řada, věcná číselná řada. Záladem statstcého třídění je uspořádání hodnot

Více

SW aplikace MOV přednášky

SW aplikace MOV přednášky SW aplace MOV Šubrt KOSA Systémová podpora proetů Teore grafů Proetové řízení I, II zápočet: alespoň bodů z průběžných testů 75% účast na cvčení obhaoba proetů v MS Proect pef.czu.cz/osa Témata. :. seznámení

Více

Numerická matematika 1. t = D u. x 2 (1) tato rovnice určuje chování funkce u(t, x), která závisí na dvou proměnných. První

Numerická matematika 1. t = D u. x 2 (1) tato rovnice určuje chování funkce u(t, x), která závisí na dvou proměnných. První Numercká matematka 1 Parabolcké rovnce Budeme se zabývat rovncí t = D u x (1) tato rovnce určuje chování funkce u(t, x), která závsí na dvou proměnných. První proměnná t mívá význam času, druhá x bývá

Více

OSTRAVSKÁ UNIVERZITA P Ř ÍRODOVĚ DECKÁ FAKULTA NEURONOVÉ SÍTĚ 1

OSTRAVSKÁ UNIVERZITA P Ř ÍRODOVĚ DECKÁ FAKULTA NEURONOVÉ SÍTĚ 1 OSTRAVSKÁ UNIVERZITA P Ř ÍRODOVĚ DECKÁ FAKULTA NEURONOVÉ SÍTĚ EVA VOLNÁ OSTRAVA 2002 Cíle předmětu Seznámt studenta se zálady teore neuronových sítí a dát mu potřebnou motvac pro pochopení důležtost teore

Více

Umělé neuronové sítě a Support Vector Machines. Petr Schwraz

Umělé neuronové sítě a Support Vector Machines. Petr Schwraz Umělé neuronové sítě a Support Vector Machnes Petr Schraz scharzp@ft.vutbr.cz Perceptron ( neuron) x x x N f() y y N f ( x + b) x vstupy neuronu váhy jednotlvých vstupů b aktvační práh f() nelneární funkce

Více

Vícekriteriální rozhodování. Typy kritérií

Vícekriteriální rozhodování. Typy kritérií Vícekrterální rozhodování Zabývá se hodnocením varant podle několka krtérí, přčemž varanta hodnocená podle ednoho krtéra zpravdla nebývá nelépe hodnocená podle krtéra ného. Metody vícekrterálního rozhodování

Více

4EK211 Základy ekonometrie

4EK211 Základy ekonometrie 4EK211 Základy ekonometre Specální případy použtí MNČ Cvčení 8 Zuzana Dlouhá Specální případy použtí MNČ cvčení 1 7 = ekonometrcký model, který byl lneární v proměnných v parametrech MNČ můžeme použít,

Více

2.4. DISKRÉTNÍ SIGNÁLY Vzorkování

2.4. DISKRÉTNÍ SIGNÁLY Vzorkování .4. DISKRÉTÍ SIGÁLY.4.. Vzorování Vzorování je nejběžnější způsob vznu dsrétních sgnálů ze sgnálů spojtých. Předpoládejme, že spojtý sgnál (t) je přveden na spínač, terý se velce rátce sepne aždých T vz

Více

MODELOVÁNÍ A SIMULACE

MODELOVÁNÍ A SIMULACE MODELOVÁNÍ A SIMULACE základní pojmy a postupy vytváření matematckých modelů na základě blancí prncp numerckého řešení dferencálních rovnc základy práce se smulačním jazykem PSI Základní pojmy matematcký

Více

4EK211 Základy ekonometrie

4EK211 Základy ekonometrie 4EK211 Základy ekonometre Specální případy použtí MNČ Cvčení 9 Zuzana Dlouhá Specální případy použtí MNČ cvčení 1 8 = ekonometrcký model, který byl lneární v proměnných v parametrech MNČ můžeme použít,

Více

REGRESNÍ ANALÝZA. 13. cvičení

REGRESNÍ ANALÝZA. 13. cvičení REGRESNÍ ANALÝZA 13. cvčení Závslost náhodných velčn Závslost mez kvanttatvním proměnným X a Y: Funkční závslost hodnotam nezávsle proměnných je jednoznačně dána hodnota závslé proměnné. Y=f(X) Stochastcká

Více

u (x i ) U i 1 2U i +U i+1 h 2. Na hranicích oblasti jsou uzlové hodnoty dány okrajovými podmínkami bud přímo

u (x i ) U i 1 2U i +U i+1 h 2. Na hranicích oblasti jsou uzlové hodnoty dány okrajovými podmínkami bud přímo Metoda sítí základní schémata h... krok sítě ve směru x, tj. h = x x q... krok sítě ve směru y, tj. q = y j y j τ... krok ve směru t, tj. τ = j... hodnota přblžného řešení v uzlu (x,y j ) (Possonova rovnce)

Více

Metody vícekriteriálního hodnocení variant a jejich využití při výběru produktu finanční instituce

Metody vícekriteriálního hodnocení variant a jejich využití při výběru produktu finanční instituce . meznárodní konference Řízení a modelování fnančních rzk Ostrava VŠB-TU Ostrava, Ekonomcká fakulta, katedra Fnancí 8. - 9. září 200 Metody vícekrterálního hodnocení varant a ech využtí př výběru produktu

Více

7. ZÁKLADNÍ TYPY DYNAMICKÝCH SYSTÉMŮ

7. ZÁKLADNÍ TYPY DYNAMICKÝCH SYSTÉMŮ 7. ZÁKADNÍ TYPY DYNAMICKÝCH SYSTÉMŮ 7.. SPOJITÉ SYSTÉMY Téměř všechny fyzálně realzovatelné spojté lneární systémy (romě systémů s dopravním zpožděním lze vytvořt z prvů tří typů: proporconálních členů

Více

Segmentace. Ilona Janáková. Rozvrh přednášky:

Segmentace. Ilona Janáková. Rozvrh přednášky: 1 / 31 Segmentace Ilona Janáková Rozvrh přednášky: 1. Úvod do segmentace. 2. Segmentace prahováním. 3. Segmentace z obrazu hran. 4. Segmentace z obrazu hran - Houghova transformace. 2 / 31 Segmentace Ilona

Více

1. Úvod do základních pojmů teorie pravděpodobnosti

1. Úvod do základních pojmů teorie pravděpodobnosti 1. Úvod do záladních pojmů teore pravděpodobnost 1.1 Úvodní pojmy Většna exatních věd zobrazuje své výsledy rgorózně tj. výsledy jsou zísávány na záladě přesných formulí a jsou jejch nterpretací. em je

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Vkládání pomocí Viterbiho algoritmu

Vkládání pomocí Viterbiho algoritmu Vkládání pomocí Vterbho algortmu Andrew Kozlk KA MFF UK C Vkládání pomocí Vterbho algortmu Cíl: Využít teor konvolučních kódů. Motvace: Vterbho dekodér je soft-decson dekodér. Každému prvku nosče přřadíme

Více

Úvod Terminologie Dělení Princip ID3 C4.5 CART Shrnutí. Obsah přednášky

Úvod Terminologie Dělení Princip ID3 C4.5 CART Shrnutí. Obsah přednášky Obsah přednášky. Úvod. Termnologe 3. Základní dělení 4. Prncp tvorby, prořezávání a použtí RS 5. Algortmus ID3 6. C4.5 7. CART 8. Shrnutí A L G O RI T M Y T E O R I E Stromové struktury a RS Obsah knhy

Více

Porovnání GUM a metody Monte Carlo

Porovnání GUM a metody Monte Carlo Porovnání GUM a metody Monte Carlo Ing. Tomáš Hajduk Nejstota měření Parametr přřazený k výsledku měření Vymezuje nterval, o němž se s určtou úrovní pravděpodobnost předpokládá, že v něm leží skutečná

Více

ČASOVÁ KOORDINACE SPOJŮ VEŘEJNÉ HROMADNÉ DOPRAVY NA ÚSECÍCH DOPRAVNÍ SÍTĚ

ČASOVÁ KOORDINACE SPOJŮ VEŘEJNÉ HROMADNÉ DOPRAVY NA ÚSECÍCH DOPRAVNÍ SÍTĚ ČASOVÁ KOORDINACE SPOJŮ VEŘEJNÉ HROMADNÉ DOPRAVY NA ÚSECÍCH DOPRAVNÍ SÍTĚ THE TIME COORDINATION OF PUBLIC MASS TRANSPORT ON SECTIONS OF THE TRANSPORT NETWORK Petr Kozel 1 Anotace: Předložený příspěvek

Více

1. Nejkratší cesta v grafu

1. Nejkratší cesta v grafu 08. Nekratší cesty. Úloha obchodního cestuícího. Heurstky a aproxmační algortmy. Metoda dynamckého programování. Problém batohu. Pseudopolynomální algortmy 1. Nekratší cesta v grafu - sled e lbovolná posloupnost

Více

ŘEŠENÍ PROBLÉMU LOKALIZACE A ALOKACE LOGISTICKÝCH OBJEKTŮ POMOCÍ PROGRAMOVÉHO SYSTÉMU MATLAB. Vladimír Hanta 1, Ivan Gros 2

ŘEŠENÍ PROBLÉMU LOKALIZACE A ALOKACE LOGISTICKÝCH OBJEKTŮ POMOCÍ PROGRAMOVÉHO SYSTÉMU MATLAB. Vladimír Hanta 1, Ivan Gros 2 ŘEŠENÍ PROBLÉMU LOKALIZACE A ALOKACE LOGISTICKÝCH OBJEKTŮ POMOCÍ PROGRAMOVÉHO SYSTÉMU MATLAB Vladmír Hanta 1 Ivan Gros 2 Vysoká škola chemcko-technologcká Praha 1 Ústav počítačové a řídcí technky 2 Ústav

Více

Reprezentace přirozených čísel ve Fibonacciho soustavě František Maňák, FJFI ČVUT, 2005

Reprezentace přirozených čísel ve Fibonacciho soustavě František Maňák, FJFI ČVUT, 2005 Reprezentace přirozených čísel ve ibonacciho soustavě rantiše Maňá, JI ČVUT, 2005 Úvod Ja víme, přirozená čísla lze vyádřit různými způsoby Nečastěi zápisu čísel používáme soustavu desítovou, ale umíme

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOS A SAISIKA Regulární systém hustot Vychází se z: -,, P - pravděpodobnostní prostor -, R neprázdná množna parametrů - X X 1,, náhodný vektor s sdruženou hustotou X n nebo s sdruženou pravděpodobnostní

Více

G( x) %, ν%, λ. x, x, N, N nezáporné přídatné proměnné, ( ) 2 Matematické programování

G( x) %, ν%, λ. x, x, N, N nezáporné přídatné proměnné, ( ) 2 Matematické programování Matematicé programování Označení a definice veličin. opt i/maimalizace w, Žádaná hodnota,transpozice, relace typu nebo Inde diagonální formy vetoru. Obecná omezovací podmína Γ ( ( = ( Є, R, y podmíny typu

Více

15 Mletí. I Základní vztahy a definice. Oldřich Holeček (aktualizace v roce 2014 Michal Přibyl & Marek Schöngut)

15 Mletí. I Základní vztahy a definice. Oldřich Holeček (aktualizace v roce 2014 Michal Přibyl & Marek Schöngut) 15 Mletí Oldřch Holeče (atualzace v roce 2014 Mchal Přbyl & Mare Schöngut) I Záladní vztahy a defnce I.1 Úvod Rychlost mnoha chemcých a fyzálních procesů závsí na velost mezfázového povrchu. Je-l v nch

Více

Cvičení 13 Vícekriteriální hodnocení variant a vícekriteriální programování

Cvičení 13 Vícekriteriální hodnocení variant a vícekriteriální programování Cvčení 3 Vícekrterální hodnocení varant a vícekrterální programování Vícekrterální rozhodování ) vícekrterální hodnocení varant konkrétní výčet, seznam varant ) vícekrterální programování varanty ve formě

Více

Matematika I A ukázkový test 1 pro 2018/2019

Matematika I A ukázkový test 1 pro 2018/2019 Matematka I A ukázkový test 1 pro 2018/2019 1. Je dána soustava rovnc s parametrem a R x y + z = 1 x + y + 3z = 1 (2a 1)x + (a + 1)y + z = 1 a a) Napšte Frobenovu větu (předpoklady + tvrzení). b) Vyšetřete

Více

{ } SYNTÉZA TABULEK PŘECHODŮ 1. NEALGEBRAICKÉ METODY

{ } SYNTÉZA TABULEK PŘECHODŮ 1. NEALGEBRAICKÉ METODY SNTÉZA TABULEK PŘECHODŮ. NEALGEBRAICKÉ METOD a) GINSBURGOVA METODA Využívá tzv. korespondencí mez vstupním a výstupním slovem př dané vstupní a výstupní abecedě. Jnak řečeno, vyhodnocuí se ednotlvé odezvy

Více

Dopravní plánování a modelování (11 DOPM )

Dopravní plánování a modelování (11 DOPM ) Department of Appled Mathematcs Faculty of ransportaton Scences Czech echncal Unversty n Prague Dopravní plánování a modelování (11 DOPM ) Lekce 5: FSM: rp dstrbuton Prof. Ing. Ondře Přbyl, Ph.D. Ing.

Více

SÍŤOVÁ ANALÝZA. Základní pojmy síťové analýzy. u,. Sjednocením množin { u, u,..., 2. nazýváme grafem G.

SÍŤOVÁ ANALÝZA. Základní pojmy síťové analýzy. u,. Sjednocením množin { u, u,..., 2. nazýváme grafem G. SÍŤOVÁ ANALÝZA Využívá grafcko-analytcké metody pro plánování, řízení a kontrolu složtých návazných procesů. yto procesy se daí rozložt na dílčí a organzačně spolu souvseící čnnost. yto procesy se nazývaí

Více

ANALÝZA VZTAHU DVOU SPOJITÝCH VELIČIN

ANALÝZA VZTAHU DVOU SPOJITÝCH VELIČIN ANALÝZA VZTAHU DVOU SPOJITÝCH VELIČIN V dokumentu 7a_korelacn_a_regresn_analyza jsme řešl rozdíl mez korelační a regresní analýzou. Budeme se teď věnovat pouze lneárnímu vztahu dvou velčn, protože je nejjednodušší

Více

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC Přednáša 02 Přírodovědecá faulta Katedra matematiy KMA/P506 Pravděpodobnost a statistia KMA/P507 Statistia na PC jiri.cihlar@ujep.cz Náhodné veličiny Záladní definice Nechť je dán pravděpodobnostní prostor

Více

Pružnost a plasticita II

Pružnost a plasticita II Pružnost a plastcta II 3. ročník bakalářského stua oc. Ing. Martn Kresa Ph.D. Katera stavební mechank Řešení nosných stěn metoou sítí 3 Řešení stěn metoou sítí metoa sítí (metoa konečných ferencí) těnová

Více

Využití logistické regrese pro hodnocení omaku

Využití logistické regrese pro hodnocení omaku Využtí logstcké regrese pro hodnocení omaku Vladmír Bazík Úvod Jedním z prmárních proevů textlí e omak. Jedná se o poct který vyvolá textle př kontaktu s pokožkou. Je to ntegrální psychofyzkální vlastnost

Více

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44 Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný

Více

1. Sítě se vzájemnými vazbami

1. Sítě se vzájemnými vazbami Obsah 1. Sítě se vzáemným vazbam... 2 1.1 Základní nformace... 2 1.2 Výstupy z učení... 2 1.3 Obecná charakterstka umělých neuronových sítí se vzáemným vazbam... 2 1.4 Hopfeldova síť... 3 1.4.1 Organzační

Více

4. Přednáška: Kvazi-Newtonovské metody:

4. Přednáška: Kvazi-Newtonovské metody: 4 Přednáša: Kvazi-Newtonovsé metody: Metody s proměnnou metriou, modifiace Newtonovy metody Efetivní pro menší úlohy s hustou Hessovou maticí Newtonova metoda (opaování): f aproximujeme loálně vadraticou

Více

Using a Kalman Filter for Estimating a Random Constant Použití Kalmanova filtru pro výpočet odhadu konstantní hodnoty

Using a Kalman Filter for Estimating a Random Constant Použití Kalmanova filtru pro výpočet odhadu konstantní hodnoty II. Semnar ASR 007 Instruments and Control, Farana, Smutný, Kočí & Babuch (eds) 007, VŠB-TUO, Ostrava, ISB 978-80-48-7-4 Usng a Kalman Flter for Estmatng a Random Constant Použtí Kalmanova fltru pro výpočet

Více

ANALÝZA ROZPTYLU (Analysis of Variance ANOVA)

ANALÝZA ROZPTYLU (Analysis of Variance ANOVA) NLÝZ OZPYLU (nalyss of Varance NOV) Používá se buď ako samostatná technka, nebo ako postup, umožňuící analýzu zdroů varablty v lneární regres. Př. použtí: k porovnání středních hodnot (průměrů) více než

Více

Pružnost a plasticita II

Pružnost a plasticita II Pružnost a plastcta II 3 ročník bakalářského studa doc Ing Martn Kresa PhD Katedra stavební mechank Řešení pravoúhlých nosných stěn metodou sítí Statcké schéma nosné stěn q G υ (μ) h l d 3 wwwfastvsbcz

Více

VÍCEKRITERIÁLNÍ VÝBĚR PROJEKTŮ DO PORTFOLIA MULTICRITERIAL PROJECTS SELECTION INTO THE PORTFOLIO

VÍCEKRITERIÁLNÍ VÝBĚR PROJEKTŮ DO PORTFOLIA MULTICRITERIAL PROJECTS SELECTION INTO THE PORTFOLIO VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ FAKULTA STROJNÍHO INŽENÝRSTVÍ ÚSTAV AUTOMATIZACE A INFORMATIKY Ing. Petr Pňos VÍCEKRITERIÁLNÍ VÝBĚR PROJEKTŮ DO PORTFOLIA MULTICRITERIAL PROJECTS SELECTION INTO THE PORTFOLIO

Více

Lineární regrese ( ) 2

Lineární regrese ( ) 2 Leárí regrese Častým úolem je staoveí vzájemé závslost dvou (č více) fzálích velč a její matematcé vjádřeí. K tomuto účelu se používají růzé regresí metod, pomocí chž hledáme vhodou fuc f (), apromující

Více

Buckinghamův Π-teorém (viz Barenblatt, Scaling, 2003)

Buckinghamův Π-teorém (viz Barenblatt, Scaling, 2003) Bucinghamův Π-teorém (viz Barenblatt, Scaling, 2003) Formalizace rozměrové analýzy ( výsledné jednoty na obou stranách musí souhlasit ). Rozměr fyziální veličiny Mějme nějaou třídu jednote, napřílad [(g,

Více

Řešení radiační soustavy rovnic

Řešení radiační soustavy rovnic Řešení radační soustavy rovnc 1996-2016 Josef Pelkán CGG MFF UK Praha pepca@cgg.mff.cun.cz http://cgg.mff.cun.cz/~pepca/ RadSoluton 2016 Josef Pelkán, http://cgg.ms.mff.cun.cz/~pepca 1 / 23 Soustava lneárních

Více

VYSOKÉ U ENÍ TECHNICKÉ V BRN BRNO UNIVERSITY OF TECHNOLOGY

VYSOKÉ U ENÍ TECHNICKÉ V BRN BRNO UNIVERSITY OF TECHNOLOGY VYSOKÉ U ENÍ TECHNICKÉ V BRN BRNO UNIVERSITY OF TECHNOLOGY FAKULTA STROJNÍHO INŽENÝRSTVÍ ÚSTAV MATEMATIKY FACULTY OF MECHANICAL ENGINEERING INSTITUTE OF MATHEMATICS MATEMATICKÝ MODEL ROZPO TU MATHEMATICAL

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.

Více

teorie elektronických obvodů Jiří Petržela syntéza a návrh elektronických obvodů

teorie elektronických obvodů Jiří Petržela syntéza a návrh elektronických obvodů Jří Petržela yntéza a návrh eletroncých obvodů vtupní údaje pro yntézu obvodu yntéza a návrh eletroncých obvodů vlatnot obvodu obvodové funce parametry obvodu toleranční pole (mtočtové charaterty fltru)

Více

Řešení radiační soustavy rovnic

Řešení radiační soustavy rovnic Řešení radační soustavy rovnc 1996-2008 Josef Pelkán KSVI MFF UK Praha e-mal: Josef.Pelkan@mff.cun.cz WWW: http://cgg.ms.mff.cun.cz/~pepca/ NPGR010, radsoluton.pdf 2008 Josef Pelkán, http://cgg.ms.mff.cun.cz/~pepca

Více

Zadání příkladů. Zadání:

Zadání příkladů. Zadání: Zdání příkldů Zdání: ) Popšte oblst vužtí plánovných expermentů ) Uveďte krtér optmlt plánů ) Co sou Hdmrdov mtce ké mí vlstnost? ) Co sou. fktorové plán k e lze vužít? 5) Blok čtverce - oblst ech vužtí

Více

Matematické modelování turbulence

Matematické modelování turbulence Matematcé modelování turbulence 1. Reynolds Averaged Naver Stoes (RANS) Řeší se Reynoldsovy rovnce Výsledem ustálené řešení, střední velčny Musí se použít fyzální model pro modelování Reynoldsových napětí

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RND. Iveta Mázová, CSc. Kateda teoetcké nfomatky Matematcko-fyzkální fakulta Unvezty Kalovy v Paze Dobývání znalostí Umělé neuonové sítě Doc. RND. Iveta Mázová, CSc. Kateda teoetcké

Více

Analýza dat z otevřených zdrojů

Analýza dat z otevřených zdrojů Analýza dat z otevřených zdrojů Iveta Mrázová katedra teoretické informatiky a matematické logiky matematicko-fyzikální fakulta Univerzita Karlova v Praze Data z otevřených zdrojů -motivace Obrovské množství

Více

Aplikace teorie neuronových sítí

Aplikace teorie neuronových sítí Aplkace teoe neuonových sítí Doc. RND. Iveta Mázová, CSc. Kateda teoetcké nfomatky Matematcko-fyzkální fakulta Unvezty Kalovy v Paze Aplkace teoe neuonových sítí -tadční přístupy - Doc. RND. Iveta Mázová,

Více

SIMULACE. Numerické řešení obyčejných diferenciálních rovnic. Měřicí a řídicí technika magisterské studium FTOP - přednášky ZS 2009/10

SIMULACE. Numerické řešení obyčejných diferenciálních rovnic. Měřicí a řídicí technika magisterské studium FTOP - přednášky ZS 2009/10 SIMULACE numercké řešení dferencálních rovnc smulační program dentfkace modelu Numercké řešení obyčejných dferencálních rovnc krokové metody pro řešení lneárních dferencálních rovnc 1.řádu s počátečním

Více

Příklady: - počet členů dané domácnosti - počet zákazníků ve frontě - počet pokusů do padnutí čísla šest - životnost televizoru - věk člověka

Příklady: - počet členů dané domácnosti - počet zákazníků ve frontě - počet pokusů do padnutí čísla šest - životnost televizoru - věk člověka Náhodná veličina Náhodnou veličinou nazýváme veličinu, terá s určitými p-stmi nabývá reálných hodnot jednoznačně přiřazených výsledům příslušných náhodných pousů Náhodné veličiny obvyle dělíme na dva záladní

Více

3. Vícevrstvé dopředné sítě

3. Vícevrstvé dopředné sítě 3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze

Více

7.3.9 Směrnicový tvar rovnice přímky

7.3.9 Směrnicový tvar rovnice přímky 739 Směrnicový tvar rovnice přímy Předpolady: 7306 Pedagogicá poznáma: Stává se, že v hodině nestihneme poslední část s určováním vztahu mezi směrnicemi olmých příme Vrátíme se obecné rovnici přímy: Obecná

Více

2.5. MATICOVÉ ŘEŠENÍ SOUSTAV LINEÁRNÍCH ROVNIC

2.5. MATICOVÉ ŘEŠENÍ SOUSTAV LINEÁRNÍCH ROVNIC 25 MATICOVÉ ŘEŠENÍ SOUSTAV LINEÁRNÍCH ROVNIC V této kaptole se dozvíte: jak lze obecnou soustavu lneárních rovnc zapsat pomocí matcového počtu; přesnou formulac podmínek řeštelnost soustavy lneárních rovnc

Více

- Pokud máme na množině V zvoleno pevné očíslování vrcholů, můžeme váhovou funkci jednoznačně popsat. Symbolem ( i)

- Pokud máme na množině V zvoleno pevné očíslování vrcholů, můžeme váhovou funkci jednoznačně popsat. Symbolem ( i) DSM2 C 8 Problém neratší cesty Ohodnocený orientoaný graf: - Definice: Ohodnoceným orientoaným grafem na množině rcholů V = { 1, 2,, n} nazýáme obet G = V, w, de zobrazení w : V V R { } se nazýá áhoá funce

Více

1. Úvod. Cílem teorie her je popsat situaci, která nás zajímá, jako hru. Klasickým případem

1. Úvod. Cílem teorie her je popsat situaci, která nás zajímá, jako hru. Klasickým případem Kvaternon 2/204, 79 98 79 MATICOVÉ HRY V INŽENÝRSTVÍ JAROSLAV HRDINA a PETR VAŠÍK Abstrakt. Následuící text pokrývá eden z cyklů přednášek předmětu Aplkovaná algebra pro nženýry (0AA) na FSI VUT. Text

Více

Metody operačního výzkumu přednášky

Metody operačního výzkumu přednášky PEF - KOSA - Předměty - MOV4 MOV5syl - všehno předmětu pef.zu.z/osa see Předměty u zoušy - zajímá jí postup, numeré hyby nevadí 2 evdenčníh testů - na záladní vě 2 bodů za dobrovolné domáí úoly (poud bude

Více

Korelační energie. Celkovou elektronovou energii molekuly lze experimentálně určit ze vztahu. E vib. = E at. = 39,856, E d

Korelační energie. Celkovou elektronovou energii molekuly lze experimentálně určit ze vztahu. E vib. = E at. = 39,856, E d Korelační energe Referenční stavy Energ molekul a atomů lze vyjádřt vzhledem k různým referenčním stavům. V kvantové mechance za referenční stav s nulovou energí bereme stav odpovídající nenteragujícím

Více

2. Posouzení efektivnosti investice do malé vtrné elektrárny

2. Posouzení efektivnosti investice do malé vtrné elektrárny 2. Posouzení efektvnost nvestce do malé vtrné elektrárny Cíle úlohy: Posoudt ekonomckou výhodnost proektu malé vtrné elektrárny pomocí základních metod hodnocení efektvnost nvestních proekt ako sou metoda

Více

Monte Carlo metody Josef Pelikán CGG MFF UK Praha.

Monte Carlo metody Josef Pelikán CGG MFF UK Praha. Monte Carlo metody 996-7 Josef Pelkán CGG MFF UK Praha pepca@cgg.mff.cun.cz http://cgg.mff.cun.cz/~pepca/ Monte Carlo 7 Josef Pelkán, http://cgg.ms.mff.cun.cz/~pepca / 44 Monte Carlo ntegrace Odhadovaný

Více

VÝZNAM TEORIE DUALITY V OPERAČNÍ ANALÝZE THEORY OF DUALITY IN OPERATIONAL ANALYSIS. ZÍSKAL Jan. Abstract

VÝZNAM TEORIE DUALITY V OPERAČNÍ ANALÝZE THEORY OF DUALITY IN OPERATIONAL ANALYSIS. ZÍSKAL Jan. Abstract VÝZNAM EORIE DUALIY V OPERAČNÍ ANALÝZE HEORY OF DUALIY IN OPERAIONAL ANALYSIS ZÍSKAL Jan Abstract hs paper summarzes knowledge from lterature and results of research n dual theor at the Department of sstems

Více

Modely a metódy lineárneho a celočíselného programovania

Modely a metódy lineárneho a celočíselného programovania Modely a metódy lneárneho a celočíselného programovana (Téy prenáše č. 10) Téma prednášy Bvalentné programovane Prof. Dr. Mchal Fende Katedra operačného výsumu a eonometre Eonomcá unverta Bratslava Dolnoemsá

Více

MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU

MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU Úloha č 5 MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU ÚKOL MĚŘENÍ: Určete moment setrvačnosti ruhové a obdélníové desy vzhledem jednotlivým osám z doby yvu Vypočtěte moment setrvačnosti ruhové a obdélníové

Více

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc Neuronové sítě a možnosti jejich využití Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc 1. Biologický neuron Osnova 2. Neuronové sítě Umělý neuron

Více

FERGUSONOVA KUBIKA. ( u) ( ) ( ) X s X s. Kubický spline C 2 má dva stupně volnosti Q 1 Q 2

FERGUSONOVA KUBIKA. ( u) ( ) ( ) X s X s. Kubický spline C 2 má dva stupně volnosti Q 1 Q 2 FERGUSONOVA KUBIKA C F F F ( u) = Q F ( u) + Q F ( u) + Q F ( u) + Q F ( u), u F ( u) = u ( u) = u + ( u) = u u ( u) = u u u + u + u Q Q Q Q C napojení Fergusonových kubk Kubcký splne C má dva stupně volnost

Více

Aplikace teorie neuronových sítí

Aplikace teorie neuronových sítí Alace teore euroových sítí Doc. RNDr. Iveta Mrázová CSc. Katedra teoretcé formaty Matematco-fyzálí faulta Uverzty Karlovy v Praze Alace teore euroových sítí Asocatvíamět a restaurace obrazu Doc. RNDr.

Více

Teorie her a ekonomické rozhodování. 10. Rozhodování při jistotě, riziku a neurčitosti

Teorie her a ekonomické rozhodování. 10. Rozhodování při jistotě, riziku a neurčitosti Teore her a ekonomcké rozhodování 10. Rozhodování př stotě, rzku a neurčtost 10.1 Jednokrterální dskrétní model Jednokrterální model rozhodování: f a ) max a Aa, a,..., a ( 1 2 f krterální funkce (zsk,

Více

APLIKACE MATEMATICKÉHO PROGRAMOVÁNÍ PŘI NÁVRHU STRUKTURY DISTRIBUČNÍHO SYSTÉMU

APLIKACE MATEMATICKÉHO PROGRAMOVÁNÍ PŘI NÁVRHU STRUKTURY DISTRIBUČNÍHO SYSTÉMU APLIKACE MATEMATICKÉHO PROGRAMOVÁNÍ PŘI NÁVRHU STRUKTURY DISTRIBUČNÍHO SYSTÉMU APPLICATION OF MATHEMATICAL PROGRAMMING IN DESIGNING THE STRUCTURE OF THE DISTRIBUTION SYSTEM Martn Ivan 1 Anotace: Prezentovaný

Více

Obsah přednášky. 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacking 5. Boosting 6. Shrnutí

Obsah přednášky. 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacking 5. Boosting 6. Shrnutí 1 Obsah přednášy 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacing 5. Boosting 6. Shrnutí 2 Meta learning = Ensemble methods Cíl použít predici ombinaci více různých modelů Meta learning (meta

Více

6 5 = 0, = 0, = 0, = 0, 0032

6 5 = 0, = 0, = 0, = 0, 0032 III. Opaované pousy, Bernoulliho nerovnost. Házíme pětrát hrací ostou a sledujeme výsyt šesty. Spočtěte pravděpodobnosti možných výsledů a určete, terý má největší pravděpodobnost. Řešení: Jedná se o serii

Více

Softwarová podpora matematických metod v ekonomice a řízení

Softwarová podpora matematických metod v ekonomice a řízení Softwarová podpora matematckých metod v ekonomce a řízení Petr Sed a Opava 2013 Hrazeno z prostředků proektu OPVK CZ.1.07/2.2.00/15.0174 Inovace bakalářských studních oborů se zaměřením na spoluprác s

Více

Iterační výpočty. Dokumentace k projektu pro předměty IZP a IUS. 22. listopadu projekt č. 2

Iterační výpočty. Dokumentace k projektu pro předměty IZP a IUS. 22. listopadu projekt č. 2 Dokumentace k projektu pro předměty IZP a IUS Iterační výpočty projekt č.. lstopadu 1 Autor: Mlan Setler, setl1@stud.ft.vutbr.cz Fakulta Informačních Technologí Vysoké Učení Techncké v Brně Obsah 1 Úvod...

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA SP esty dobré shody PRAVDĚPODOBNOS A SAISIKA Lbor Žá SP esty dobré shody Lbor Žá Přpomeutí - estováí hypotéz o rozděleí Ch-vadrát test Chí-vadrát testem terý e založe a tříděém statstcém souboru. SP esty

Více

Téma 5: Parametrická rozdělení pravděpodobnosti spojité náhodné veličiny

Téma 5: Parametrická rozdělení pravděpodobnosti spojité náhodné veličiny 0.05 0.0 0.05 0.0 0.005 Nomnální napětí v pásnc Std Mean 40 60 80 00 0 40 60 Std Téma 5: Parametrcká rozdělení pravděpodobnost spojté náhodné velčn Přednáška z předmětu: Pravděpodobnostní posuzování konstrukcí

Více

Umělé neuronové sítě

Umělé neuronové sítě Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační

Více

Metoda konjugovaných gradientů

Metoda konjugovaných gradientů 0 Metoda onjugovaných gradientů Ludě Kučera MFF UK 11. ledna 2017 V tomto textu je popsáno, ja metodou onjugovaných gradientů řešit soustavu lineárních rovnic Ax = b, de b je daný vetor a A je symetricá

Více

8. STATISTICKÝ SOUBOR SE DVĚMA ARGUMENTY

8. STATISTICKÝ SOUBOR SE DVĚMA ARGUMENTY 8. STATISTICKÝ SOUBOR SE DVĚMA ARGUMETY Stattcký oubor e dvěma argument Průvodce tudem Vužeme znalotí z předchozí kaptol, která poednávala o tattckém ouboru edním argumentem a rozšíříme e. Předpokládané

Více

6 LINEÁRNÍ REGRESNÍ MODELY

6 LINEÁRNÍ REGRESNÍ MODELY 1 6 LINEÁRNÍ REGRESNÍ MODELY Př budování regresních modelů se běžně užívá metody nejmenších čtverců. Metoda nejmenších čtverců poskytuje postačující odhady parametrů jenom př současném splnění všech předpokladů

Více

Trénování sítě pomocí učení s učitelem

Trénování sítě pomocí učení s učitelem Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup

Více

V této sekci zobecníme vnější kalkulus z kapitoly 4 operaci vnějšího. se sice na zde zavedené operace budeme odvolávat, vždy ale jen jako

V této sekci zobecníme vnější kalkulus z kapitoly 4 operaci vnějšího. se sice na zde zavedené operace budeme odvolávat, vždy ale jen jako [2.03,1.12,1.14,2.04,2.02,2.02,2.03,2.03,2.02,0,1.03] Kapitola 8 Kovariantní vnější derivace V této seci zobecníme vnější alulus z apitoly 4 operaci vnějšího součinu a vnější derivace na obecnější tenzorové

Více

Analýza a zpracování signálů. 5. Z-transformace

Analýza a zpracování signálů. 5. Z-transformace nalýa a pracování signálů 5. Z-transformace Z-tranformace je mocný nástroj použitelný pro analýu lineárních discretetime systémů Oboustranná Z-transformace X j F j x, je omplexní číslo r e r e Oboustranná

Více

1 Gaussova kvadratura

1 Gaussova kvadratura Cvičení - zadání a řešení úloh Zálady numericé matematiy - NMNM0 Verze z 7. prosince 08 Gaussova vadratura Fat, že pro něterá rovnoměrná rozložení uzlů dostáváme přesnost o stupeň vyšší napovídá, že pro

Více

5. Umělé neuronové sítě. Neuronové sítě

5. Umělé neuronové sítě. Neuronové sítě Neuronové sítě Přesný algoritmus práce přírodních neuronových systémů není doposud znám. Přesto experimentální výsledky na modelech těchto systémů dávají dnes velmi slibné výsledky. Tyto systémy, včetně

Více

SIMULACE A ŘÍZENÍ PNEUMATICKÉHO SERVOPOHONU POMOCÍ PROGRAMU MATLAB SIMULINK. Petr NOSKIEVIČ Petr JÁNIŠ

SIMULACE A ŘÍZENÍ PNEUMATICKÉHO SERVOPOHONU POMOCÍ PROGRAMU MATLAB SIMULINK. Petr NOSKIEVIČ Petr JÁNIŠ bstrakt SIMULCE ŘÍZENÍ PNEUMTICKÉHO SERVOPOHONU POMOCÍ PROGRMU MTL SIMULINK Petr NOSKIEVIČ Petr JÁNIŠ Katedra automatzační technky a řízení Fakulta stroní VŠ-TU Ostrava Příspěvek popsue sestavení matematckého

Více

Lineární a adaptivní zpracování dat. 8. Kumulační zvýrazňování signálů v šumu 2

Lineární a adaptivní zpracování dat. 8. Kumulační zvýrazňování signálů v šumu 2 Lneární a adaptvní zpracování dat 8. Kumulační zvýrazňování sgnálů v šumu 2 Danel Schwarz Investce do rozvoe vzdělávání Opakování Kumulační zpracování sgnálů co to e, k čemu to e? Prncp metody? Nutné podmínky

Více

2 ÚVOD DO TEORIE PRAVDĚPODOBNOSTI. 2.1 Náhodný jev. π, které je třeba co nejpřesněji a nejúplněji vymezit, a k nimž je třeba výsledky pokusu a

2 ÚVOD DO TEORIE PRAVDĚPODOBNOSTI. 2.1 Náhodný jev. π, které je třeba co nejpřesněji a nejúplněji vymezit, a k nimž je třeba výsledky pokusu a ÚVOD DO TEORIE PRAVDĚPODOBNOSTI.1 Náhodný ev Tato kaptola uvádí souhrn základních pomů a postupů teore pravděpodobnost, které se uplatňuí př rozboru spolehlvost stavebních konstrukcí a systémů. Výklad

Více

4EK211 Základy ekonometrie

4EK211 Základy ekonometrie 4EK Základy ekonometre Zobecněná MNČ Cvčení 8 Zuzana Dlouhá Gauss-Markovy předpoklady Náhodná složka: Gauss-Markovy předpoklady. E(u) = náhodné vlvy se vzájemně vynulují. E(u u T ) = σ I n konečný a konstantní

Více

Vzorová písemka č. 1 (rok 2015/2016) - řešení

Vzorová písemka č. 1 (rok 2015/2016) - řešení Vzorová písemka č. rok /6 - řešení Pavla Pecherková. května 6 VARIANTA A. Náhodná veličina X je určena hustotou pravděpodobností: máme hustotu { pravděpodobnosti C x pro x ; na intervalu f x jinde jedná

Více