Neuronové sítě výuka2

Rozměr: px
Začít zobrazení ze stránky:

Download "Neuronové sítě výuka2"

Transkript

1 Neuronové sítě výuka2 Neuronové sítě jsou definovány jako nedeklarativní systémy umělé inteligence. Nedeklarativní jsou v tom smyslu, že nemusíme předem definovat pravidla, kterými se neuronová síť řídí. Pravidla řešení se stanovují až během učení. Neuronové sítě umožňují ideální řešení sítí, neboť jimi realizované sítě nezávisí na topologii a ani na propojovacích prvcích. Nevýhodou jsou velké nároky na uživatele jak v přípravě dat tak i v trénování. Protože neznáme pravidla, vytváříme si je během trénování tedy vytváříme určité nejistoty v řešení úlohy, což je fuzzy logika. Fuzzy logika matematicky vyjadřuje zachycené nejistoty spojené s poznávacím procesem. Poskytuje interferenční mechanizmus pro poznávání nejistoty. Tato řešení se nehodí pro úlohy, kde nesmí být nejistota, což je například finančnictví, účetnictví apod. Výsledky řešení nezávisí na topologii sítě, ale jen na vstupní, skryté a výstupní vrstvě jako celku. Na topologii závisí pouze jak síť pracuje (jak rychle, jakým způsobem). 1. Základní pojmy neuronové sítě Definice: Neuronová síť je orientovaný graf s ohodnocenými hranami kde rozeznáváme uzly vstupní, výstupní a skryté, a kde hrany reprezentují tok signálu. Hrany jsou ohodnoceny parametrem zpracování signálu, který je nazýván vahou. [3] Spojení mezi dvěma neurony má vždy svůj směr, takže je určen neuron, ze kterého proudí informace a do kterého. Propojení mohou být i obousměrná. Významnou vlastností spojení je váha, která určuje schopnost a intenzitu přenášení informace. Váha může mít kladnou i zápornou hodnotu, takže se neurony mohou navzájem povzbuzovat nebo potlačovat. [1] Neuron je samostatně pracující element s mnoha vstupy a většinou jedním výstupem. Výstupní signál je závislý pouze na vstupních úrovních. Neurony jsou stavební buňky mozku specializované na přenos, zpracování a uchovávání informací. Princip neuronu spočívá v procesu učení, při kterém se celý systém adaptuje podle optimalizačních algoritmů, aby co nejlépe vyřešil zadanou úlohu. Neuronové biologické systémy nejsou založeny na modelu, ale na nejistotě, nepřesnosti,složitosti a aproximace. Přesto jsou velmi úspěšné. Integrací fuzzy logiky a neuronových sítí vznikly fuzzy-neuronové sítě. 2. Topologie sítě Neuronová síť se skládá ze tří vrstev neuronů vstupních (nejsou vzájemně propojeny) - slouží jen jako vstupy do další vrstvy skrytých (obvykle obsahuje mnohonásobně více neuronů, než zbývající vrstvy) zpracovávají signály, není u nich pro nás podstatný způsob zpracování a tedy ani mezivýsledky řešení. Může se skládat z více vrstev. výstupních převádí výsledky skryté vrstvy (vstupy do vrstvy) na výstupy. Vnitřní propojení je jednosměrné

2 Typy sítí: (podle propojení skryté vrstvy) 1. Obecná neuronová síť může v rámci skryté vrstvy obsahovat smyčky -cykly. Neurony mohou posílat informaci i samy sobě přímo nebo přes několik dalších neuronů (v rámci jedné vrstvy nebo přes více vrstev skryté vrstvy). (Plné červené - vstupní tečkované - zelené - skrytý šrafované - modré - výstupní Směry bez šipek jdou zleva doprava) Díky cyklickým vazbám nemusí dojít k výsledku. Tato topologie je vhodná pro paměťové sítě. 2. Acyklická neuronová síť je vhodnější pro řešení některých typů úloh. Lze u nich jednoznačně určit postup šíření informace přes jednotlivé neurony. Každý neuron tedy čerpá informace od svých předchůdců (může to být i neuron z další vrstvy skryté vrstvy). Je vhodná pro realizaci neuronové sítě na jednoprocesorovém počítači. 2.A. Zvláštní případ acyklické sítě, která je nejběžnější, je hierarchická síť. Obsahuje více skrytých vrstev, které mají více prvků než vrstvy vnější (i řádově). Informace proudí pouze zleva doprava.(není zde ani vazba mezi prvky jedné vrstvy). Zvláštní podskupiny tvoří sítě triviální - mají jen vstupní s výstupní vrstvu vícevrstvé mohou mít propojení i přes několik vrstev skryté vrstvy vrstvené výstupy jedné vrstvy jsou vždy vstupy další vrstvy skryté vrstvy

3 U živých živočichů, kteří mají hierarchickou síť neuronů, se počet skrytých vrstev pohybuje do 4. 2.B. Redukovaná síť Zvláštním případem hierarchické sítě je redukovaná síť, která má u vnitřních vrstev méně neuronů než u vnějších. Používá se při ztrátové kompresi dat související s přibližným uchováním a přenášením akustické a video informace. Vstupní neurony mají plné informace, které předají menšímu počtu skrytých neuronů za účelem zmenšení prostoru v paměti a posléze opět rekonstruována na původní počet výstupních neuronů. 3. Základní funkce neuronů Neuron je element, který realizuje přenosovou funkci. Tato funkce je tvořena jako součet všech rozdílů určených váhováním vstupních hodnot a jejich následným porovnáním s existující přenosovou funkcí. Přeponosová funkce může být skoková (např při hlasování je existující funkce 50% všech hlasů nebo součet překročí prahovou hodnotu), nebo.analogová (výstup se postupně (obecně nelineárně) mění) Lineární analogová přenosová fce je užívána ve vstupních vrstvách sítí, kdežto skoková jen u výstupní vrstvy sítě. Pak má binární výstup a neuron se nazývá preceptron. Pro optimalizaci musí mít všechny přenosové funkce spojitou 1. derivaci. (Vyjma koncové binární.) Přenosové analogové funkce Nejjednodušší funkcí je lineární funkce y= k*x*w y

4 x W y= k x w y Kde k je přenosová funkce přenosová funkce s prahováním y= k( x*w B) y x x W y= k (x w B) y X lineární sumační funkce y= k(suma( x*w)) w 1 x 1 w 2 y= k(suma( x*w)) y y x 2 sumační funkce s prahováním suma x y= k(suma(x*w-b)) y= k(suma(x*w-b)) x 1 w 1 y y x 2 w 2 suma x Následují příklady nejužívanějších funkcí sigmoida y = 1/(1+ e - x ) Následující graf je sestrojen pro =

5 y 1,2 1 0,8 0,6 0,4 0, x Řada1 hyperbolický tangens y (x) = tgh ( x) = (e x e - x ) / (e x + e - x ) Graf je sestrojen pro =2. y 1,5 1 0, , ,5 x Řada1 Struktura a činnost sítě Za neuronovou síť budeme považovat takovou strukturu pro rozprostřené paralelní zpracování informací, která se skládá z jistého (obvykle velmi vysokého) počtu N výkonných prvků (neuronů). Každý neuron transformuje vstupní signál na výstupní signál podle své přenosové (transformační) funkce. Při takové transformaci může neuron uplatnit i svoji lokální paměť. Přenosová funkce může působit buď spojitě nebo přerušovaně (opakovaně). Lokální paměť je často reprezentována hodnotami váhových koeficientů u jednotlivých vstupů (resp. ovlivňuje její obsah u opakovaně působících funkcí). Funkci neuronové sítě můžeme zapsat jako jistou transformaci vstupního signálu X = (x 1, x 2,..., x n ) na výstupní signál Y = (y 1, y 2,..., y m ) : Y = (X). 4. Metody učení Účelem učení je naučit síť pracovat tak, aby dávala správné výsledky. Toho se dosáhne nastavováním vah u jednotlivých vazeb. Tedy učením nastavujeme váhy tak, aby výsledky byly odpovídající. Učení rozlišujeme na učení s učitelem

6 učení bez učitele. Víme, že neuronové sítě mohou provést libovolné zobrazení (výpočet). Ke každému problému máme zajištěnu existenci řešící sítě. Nevíme ovšem, jak řešení najít. U biologických neuronů jsou znalosti uloženy v synapsích, ve formálním modelu jsou uloženy ve vahách příslušných spojů. Naučit síť řešit nějaký problém znamená nalézt hodnoty všech vah a prahů jednotlivých neuronů. Získání těchto hodnot přímým výpočtem synaptických vah neuronů (jako u binárních prahových neuronů) je nevhodné a ve většině případů i neuskutečnitelné. Proto hodnoty vah získáváme během tréninku sítě. Nastavování vah je součástí jednotlivých trénovacích metod a je nazýváno výukovým zákonem. Jedná se tedy o režim, který nazýváme adaptivní (učící). Po ukončení tohoto režimu přechází síť do režimu aktivního (vybavovacího). 4.1 Učení s učitelem Učení s učitelem můžeme popsat jednoduchým způsobem následovně. Předložíme-li na vstupy neuronové sítě zadání některého problému, síť na výstupech zareaguje podle momentálního nastavení vah a prahových úrovní. Výstup můžeme porovnat s požadovaným řešením a stanovit chybu. Na jejím základě se budeme snažit změnit váhy tak, aby při dalším řešení stejného zadání byla velikost chyby menší. Pro zobecnění řešení je potřeba stanovit trénovací množinu vstupních vzorů. Princip učení živých organizmů je podobný, i když pozice učitele nebývá vždy jednoznačně určena (bývají to nejčastěji různé okolní vlivy působící jako zpětná vazba). Máme-li vícevrstvou síť s m vstupními neurony x 1,,x m a n výstupními neurony o 1,...,o n, můžeme trénovací množinu zapsat jako: T = x 1, y 1, x 2, y 2,..., x P, y P, kde x p = (x 1 p,..., x m p ) je vektor vstupních hodnot a y p = (y 1 p,...,y n p ) je vektor požadovaných výstupních hodnot p-tého příkladu. T značí transformaci vstupních hodnot na výstupní a tedy lze symbolicky předcházející vztah zapsat jako T = [x, y] Trénovací množina obsahuje P příkladů, které se síť musí naučit; platí p P. Pak celková střední kvadratická odchylka sítě (nejčastěji používaná metoda vyhodnocení) je dána vztahem: 1 kde o p k je skutečný výstup k-tého neuronu ve výstupní vrstvě při předložení vstupu p-tého příkladu na neurony vstupní vrstvy, E je chybová funkce. Pak (y p k - o p k ) je rozdíl požadovaného a očekávaného výstupu. Neuronová síť se může naučit i to co nechceme. Dáváme-li například prvky trénovací množiny stále ve stejném pořadí, může se síť mezi nimi vytvořit souvislost. Chybová funkce E závisí na vstupech a na vahách sítě. Považujeme-li vektor vstupů (tj. trénovací množinu) za konstantní, stává se střední kvadratická odchylka jen funkcí vah neuronové sítě. Po úpravě vah je tedy funkce E pro stejnou trénovací množinu zase jen závislá na nastavení vah. Pomocí nastavování vah se snažíme P n E = ( (y k p - o k p ) 2 ), 2 p=1 k=1

7 chybovou funkci E minimalizovat. Vzhledem k tomu, že aktivační funkce neuronů jsou derivovatelné, je i E derivovatelná podle jednotlivých vah. Dále zavedeme parametr učení sítě, který označíme, a který budeme nazývat rychlostí učení. Tento parametr také určuje délku kroku iterace. Pak pro změnu váhy (gradientní metoda) platí: Tento vztah lze nahradit přibližným vztahem, ve kterém jsou za derivace dosazeny podíly diskrétních čísel ( w i ) t+1 = - ( E/ w i ) kde pravá strana je v čase t. E w i = - ( E/ w i ) minimum W i Bude-li hodnota parametru příliš vysoká, budou se vlastnosti sítě měnit rychle, ale bude i větší riziko, že přeskočíme hledané minimum chyby. Naopak, jestliže je hodnota příliš nízká, je učení pomalejší a síť se stává více náchylná k uváznutí v lokálním minimu chybové funkce. Příklady sítí s učením s učitelem: 1. perceptronová síť, 2. zpětné šíření chyb, 3. asociativní paměť (Hopfield). Perceptronová síť Prvky perceptronové sítě jsou perceptrony, což jsou neurony s binárními výstupy nebo s nelineárním výstupem (nelineární perceptron). Binární perceptrony se používají obvykle ve výstupní vrstvě. Perceptronová síť je vrstvená neuronová síť s dopřednými vazbami. Vstupy každého neuronu jedné vrstvy jsou napojeny na výstupy všech neuronů vrstvy předchozí. Neexistují žádné vazby mezi vzdálenějšími vrstvami nebo mezi neurony v rámci jedné vrstvy. Každý neuron má tedy právě tolik vstupů, kolik je neuronů v nižší vrstvě. Vstupní vrstva sítě slouží pouze k distribuci vstupních hodnot. Pro přenosovou funkci vrstvených perceptronových sítí není vhodná funkce skoková ani lineární (u lineárních funkcí nemá smysl vytvářet více vrstev, protože jedna vrstva lineárních neuronů provádí lineární zobrazení a skládáním více lineárních zobrazení dostaneme zase jen lineární zobrazení). Budeme tedy používat nelineární perceptrony. Ty používají jako aktivační funkci takovou funkci, která součet impulsů transformuje do intervalu 0,1, a to tak, že u vstupních hodnot v blízkosti nuly prudce roste, zatímco u vysokých a nízkých hodnot se mění jen nepatrně (tato

8 vlastnost je převzata od biologických neuronů). Tyto požadavky splňují již zmíněné nelineární aktivační funkce, z nichž nejčastěji se používá sigmoida g(x) = 1 / (1 + e - x ). Back Propagation Back propagation - algoritmus zpětného šíření neboli Sítě se zpětným šířením chyby. Algoritmus zpětného šíření chyby je nejdůležitějším a nejpoužívanějším algoritmem pro učení sítí. Základem je vrstvená síť, kde nejsou žádné zpětné vazby. Chyba se šíří zpětně přes všechny vrstvy k první vrstvě. Musí ale být známa vstupní a výstupní dvojice hodnot. Pro přenosovou funkci se u těchto sítí opět používá sigmoida a hyperbolický tangens. Učení podle tohoto algoritmu probíhá ve třech fázích. V první fázi je předloženo zadání. Na toto zadání reagují neurony jednotlivých vrstev sítě, postupně od vstupní vrstvy až po výstupní. Jakmile síť vrátí výstupní hodnoty, je možné zjistit chybu výstupu. Ve druhé fázi dochází k šíření informací o chybě, a to směrem od výstupní vrstvy zpět. Chybu neuronů ve skryté vrstvě určuje součet chyb neuronů následující vrstvy vynásobených odpovídajícími vahami. U vstupní vrstvy není třeba chybu zvažovat, neboť vstupní vrstva pouze distribuuje vstupní hodnoty. Ve třetí fázi, kdy už je pro každý neuron chyba známá, je možné podle pravidla učení adaptovat váhy. Realizace výpočtu chyby a nastavení vah se provádí připojením další části sítě k dané síti, tak, aby umožnila šíření informace od výstupu ke vstupu. Pak ale při provozu se musí tato část sítě odpojit (pokud se nejedná o stále se učící síť). Další způsob je realizace sítě na počítači, kdy se obvykle provádí výpočet změny vah mimo síť. Programy tak vypočtou nové koeficienty, které se poté u sítě nastaví. Učící cyklus je tvořen jednotlivými iteracemi popsanými výše. Každý vzor je během cyklu předložen síti právě jednou. Zkušenosti ukazují, že v případě, kdy jsou trénovací vzory navzájem nezávislé, není vhodné, jak již bylo řečeno, vzory předkládat ve stále stejném pořadí. V opakujících se sekvencích by totiž síť mohla nacházet nežádoucí závislosti. Back-propagation má však i několik nepříjemných vlastností. Především je to skutečnost, že chybová funkce je závislá na všech vahách a díky tomu je to funkce velice komplexní, tedy má mnoho lokálních minim. Gradientní metoda vede vždy do nejbližšího minima, které nemusí být globální. Druhým problémem je množství učících parametrů, které nejsou algoritmem určeny, a přitom na nich závisí úspěšná konvergence chybové funkce. Vhodné nastavení těchto parametrů může značně ovlivnit úspěšnost učení. Tato metoda konverguje relativně pomalu, zejména pro velké váhy, kde jsou změny sigmoidy velmi malé

9 Obr. Metoda back-propagation error. Plné šipky ukazují směr šíření signálu, zatímco čárkované směr šíření chyby. Vylepšení algoritmu se zpětným šířením chyby spočívá v zavedení setrvačnosti ve změnách vah, kdy změna váhy záleží i na velikosti předchozí změny váhy. Jiné vylepšení spočívá ve změně délky kroku. Další vylepšení může být v dynamické změně strmosti aktivační funkce; na začátku učení sítě se používá pozvolnější aktivační funkce s menším, ke konci učení se pak její strmost zvyšováním zvětšuje. Back-propagation však není algoritmem, který používá pro učení sítí příroda. Jeho výpočet je sice lokální, ale lokálnost je pro biologickou implementaci podmínkou nutnou, nikoliv však postačující. Problém spočívá v obousměrnosti spojů, kdy se po nich zpětně šíří chyba. Reálné axony nejsou v žádném případě obousměrné. Hopfieldův model Hopfieldův model je krok směrem od biologické reality. Používá totiž symetrické spoje mezi neurony, které v přírodě neexistují. Hopfieldův model neuronové sítě byl vytvořen jako asociativní paměť. Ta je tvořena neurony propojenými symetrickými spoji každý s každým. Propojení může být reprezentováno symetrickou maticí vah s nulovou hlavní diagonálou. Neurony mají dva stavy +1 (aktivovaný) a -1 (neaktivovaný) a provádějí prahový vážený součet, kde 1, pro a 0 sign (a) = -1, pro a 0 Postupným nastavováním vah model nepodstatné informace zapomíná a podstatné čím dál tím víc pamatuje (posiluje vazby). Kladný popud zesiluje vazbu, záporný zeslabuje. Postupuje tímto způsobem tak dlouho, až zůstanou jen potřebné vazby. Fáze učení bude začínat nastavením všech vah synaptických spojení na nulu. Neuronům přiřadíme hodnoty {+1, -1}. Potom změníme všechny váhy podle následujícího pravidla: jsou-li

10 spojeny neurony se stejnou hodnotou, zvýšíme hodnotu váhy o jedničku, pokud jsou spojeny neurony s rozdílnými hodnotami, hodnotu váhy o jedničku snížíme. Váha se zde mění, i když oba neurony jsou neaktivní [-1, -1], což neexistuje u biologických neuronů, jejichž funkce je popsána Hebbovým pravidlem, podle kterého se synaptické spojení mezi dvěma současně aktivovanými neurony posiluje. Tuto změnu vah opakujeme u všech postupně přiložených vzorů. Po naučení sítě hodnota váhy každého neuronu vyjadřuje rozdíl počtu vzorů, ve kterých se spojené neurony shodují svými hodnotami, a počtu vzorů, ve kterých se neshodují. Stav Hopfieldovy sítě je binární číslo, a má tedy konečný počet stavů. Při změně svého stavu klesá její energetická funkce, a proto nemůže dojít k jejich zacyklení. To znamená, že po konečném počtu kroků se musí dostat do stabilního stavu, kdy už žádné změny neuronů nemohou proběhnout. Obr. Hopfieldova síť Na rozdíl od vrstvených sítí perceptronů, které dávají odpověď ihned, Hopfieldův model potřebuje nějaký čas, aby se ustálil v určitém stabilním stavu. Kromě základního Hopfieldova modelu existují rozšířené varianty, které umožňují používat místo binárních hodnot hodnoty reálné nebo které si místo jednotlivých stabilních stavů pamatují celé jejich sekvence. 4.2 Učení bez učitele Učení bez učitele (učení samoorganizací - třídění) není založeno na vyhodnocování výstupu. Tato metoda vytváří zobecněný výstup jen na základě použitých vstupních vzorů. Před trénováním je obsah výstupu neznámý. Při učení bez učitele dostává síť na vstup množinu podnětů, které si sama utřídí. Například rozdělí podněty do skupin podle podobnosti a určí typického zástupce skupiny (model ART), nebo začne svojí konfigurací vah a tím topologií vystihovat vlastnosti vstupů (Kohonen). U tohoto typu učení dělíme paměť na dlouhodobou (LTM long term memory) a krátkodobou (STM short term memory). Dlouhodobá paměť je tvořena nastavením synaptických vah, které se pomalu mění. Kdežto krátkodobá paměť je tvořena okamžitým stavem vzruchů, které se každým okamžikem proměňují. Učením sítě se vybírají charakteristické rysy daných vzorů. Po určité době trénování lze dospět do stavu, kdy síť rozpoznává s dostatečnou spolehlivostí vstupy v aktivním režimu. Při dalším trénování může nastat situace, kdy dojde k takzvanému přetrénování sítě. To znamená, že charakteristické rysy už nejsou obecné, ale

11 odpovídají spíše jen trénovací sadě. To se projeví zvýšenou chybovostí v aktivním režimu. Proto je vhodné použít po každé iteraci testovací sadu znaků, která nemění nastavené váhy, abychom zjistili optimální nastavení vah. Pokud by se chybovost zvýšila, vrátíme se ke stavu, kde byla ideální. Příklady sítí s učením bez učitele 1. model ART 2. Kohonenova metoda starší metoda Kohonenova metoda Kohonenova síť je tvořena vrstvou n vstupních neuronů a druhou vrstvou Kohonenových neuronů, které jsou vzájemně propojeny každý s každým. Do každého z Kohonenových neuronů přichází spoje ze všech vstupních neuronů, každý Kohonenův neuron tedy čte vstupní vektor x. Vstupy jsou násobeny synaptickými vahami, takže každému Kohonenovu neuronu i přísluší vektor synaptických vah w i. Podstata Kohonenova modelu spočívá v tom, že vektor vah je stejně jako vektor vstupu n-prvkový. Prostor vah je totožný s prostorem vstupů. Kohonenovy neurony se navzájem ovlivňují, takže po krátké době se síť ustálí ve stavu, kdy bude excitovaný jen jeden neuron a to ten, který byl na počátku excitovaný nejvíc. Tedy v Kohonenově síti reaguje na vstup jen ten neuron, který je vstupu "nejpodobnější". Kohonenova síť se učí celý život, nemá fázi učení a fázi používání jako perceptrony nebo Hopfieldův model, učí se za provozu. Kohonenova síť se používá na roztříďování vstupů do skupin, přičemž tyto skupiny si síť sama vytvoří. Proto volba počtu neuronů u Kohonenova modelu má velký vliv na dosažené výsledky. Tento nedostatek odstraňuje algoritmus ART. Vylepšení učení Kohonenovy sítě se dá dosáhnout tím, že na vstup nebude reagovat jen jeden neuron, ale víc. Obr. Kohonenova síť Metoda ART (Adaptive Resonance Theory) Tento model se používá pro kategorizaci vstupních dat. Pokud předkládáme Kohonenově síti další a další data, nemáme zajištěnu stabilitu již vytvořených kategorií dat. Nová data mohou kategorii změnit. ART metoda vytváří tolik kategorií na výstupu, kolik je výstupů. Proto při volbě malého počtu výstupů dochází k prolínání kategorií, naopak při velkém počtu může dojít i ke stavu, že každému vzoru je přiřazena jedna kategorie. ART akceptuje vstup jen tehdy, je-li dostatečně podobný některému již existujícímu prototypu nějaké kategorie. Pokud není, vytvoří se nová kategorie se vstupem jako svým prototypem a je použita nová vstupní buňka. Tyto metody mohou pracovat jak s binárním, tak i s reálným vstupem

12 5. Fuzzy-neuronová síť Spojení fuzzy logiky a neuronových sítí vznikají systémy, kterými lze snadněji modelovat fuzzy problémy. Jeho vstupní veličiny a synaptické váhy mohou být fuzzy množiny. Schopnost neuronové sítě se učit spolu se schopností fuzzy logiky zpracovávat vágní, ne přesně definované, informace vede k vytvoření výkonných a adekvátních systémů. Teorie neuronových sítí poskytuje základní adaptační algoritmy, které lze po úpravě použít i pro fuzzy-neuronovou strukturu. Činnost fuzzy-neuronu se skládá ze dvou odlišných operací synaptická operace - váhy vstupních hodnot jsou spojeny s dlouhodobou pamětí. Váhy se adaptují v souladu s učícím algoritmem somatická operace jsou nelineární operace, které se nastavují během procesu učení tzn. mění se přenosová funkce. Přesáhne-li váha agregace tj. upravených vstupů zabudovaný práh, neuron (soma) generuje výstupní signál. U fuzzy neuronu je vstupní součet nahrazen tzv. agregací, která je obvykle fuzzy sjednocení. Vývoj fuzzy-neuro systémů se skládá 1. z vývoje modelu motivovaným biologickým neuronem 2. jeho modelováním pomocí synaptických spojení 3. vývoje učícího algoritmu pomocí vhodného přizpůsobování synaptických vah a somatických operací. Učení podporuje snahu vytvořit co nejvíce podobné vektory synaptických vah a vstupního vektoru nového vzoru. Učení může být na základě výstupů - bez učitele chyb - s učitelem, tzn., že je znám předem výsledek Nejběžnější algoritmus je algoritmus zpětného šíření chyb. Při modifikaci parametrů se od sebe liší neuronová a fuzzy-neuronová síť. U fuzzy se navíc modifikují i agregační funkce, prahy, přenosové funkce. Tyto modifikace urychlují výpočtový proces. Učení bez učitele zachycuje pravidelnosti ve vstupních vektorech bez přijímání jakékoliv další informace. Pomáhá vytvářet uzly pravidel. Učení s učitelem vyžaduje specifikaci výstupního vektoru a je nadřazené (algoritmy) učení bez učitele. Toto učení adaptuje funkce příslušnosti - vágnosti. Fuzzy neuronová síť má 5 vrstev. První vrstva je vstupní, Druhá vrstva provádí fuzifikaci proměnné (high,low), Třetí vrstva zobrazuje logická pravidla (např. AND) Čtvrtá vrstva je agregační (např. OR) Pátá vrstva je defuzifikace. Z páté - výstupní jsou vyvedeny dva výstupy. Jeden je trénovací a informace z něho vstupují do sítě a druhý je skutečný výstup ze sítě. low trénovací

13 high řádný Hybridní učící algoritmus se skládá z fáze samoorganizace (bez učitele), kdy se snaží nalézt fuzzy významná logická pravidla. Využívá trénovací data. Pak provádí shlukovou analýzu, ve které vybírá ty vstupní/výstupní oblasti, které mají smysl v úloze uvažovat. Pak je vybráno spojení (důsledek) s největší vahou (agregace) a ostatní jsou zrušena. Druhá fáze je učení s učitelem, kdy se používá algoritmus zpětného šíření chyby. Ladění systému [2] se provádí pomocí Trénovací data jsou datové věty určené trénování sítě Ověřovací data (Validation data) řeší problém přetrénování neuronové sítě. Při dlouhém trénování ztrácí síť vlastnosti zobecnění. Ověřovací data monitorují trénování. Ověřovací data jsou data, která nebyla použita k vytváření modelu. Testovací data jsou data k ověření funkce aplikace. Na rozdíl od fuzzy modelů, kde jsou znalosti vytvořeny explicitně, nejčastěji podmínkou if then, u neuronů jsou znalosti koncentrované v jejich vektoru synaptických vah. Převod (transformace) fuzzy modelu do F-N sítě. Model F-N sítě lze vytvořit pomocí 5ti vrstvé sítě. První vstupní vrstva má výstupy do druhé vrstvy, tak, že se jednotlivé vstupy ve druhé vrstvě vzájemně neovlivňují. Tím druhá vrstva vytváří hodnoty úměrné vstupní hodnotě, které jsou převedeny do fuzzy množiny. Každý neuron 3. vrstvy odpovídá jednomu podmíněnému pravidlu. Čtvrtá vrstva vypočítává výstupní proměnné. Neurony v 5. vrstvě sestavují výstupní vektor. Před učením sítě jsou váhové koeficienty nastaveny na 1. Adaptační procedura umožňuje pomocí back-propagation adaptovat tvary fuzzy množin (parametry) jazykových hodnot pravidel váhové koeficienty pravidel váhové koeficienty hodnot výpočtu. Chyba je dána E n = 0,5 (y vzor y výstup ) 2 Tato chyba je základem pro zpětnou vazbu, tj. signál na vstupu. 6. Aplikace Díky svým vlastnostem jsou neuronové sítě často nasazovány na řešení problémů, které nedokážeme přímo popsat. Důvody jsou různé; vstupní data mohou být poškozená nebo neúplná, nebo je řešení natolik komplikované, že jeho popis je

14 prakticky nemožný. Jediným způsobem popisu pro všechny takové problémy je stanovení množiny některých možných zadání a odpovídajících řešení daného problému. Takový popis označujeme jako trénovací množinu řešeného problému. Snahou tvůrců neuronových sítí je navrhovat neuronové sítě strukturovaně. Proto se sítě člení na menší části nejen podle geometrických hledisek, ale často mnohem jemněji. Vytvářené skupiny se nazývají úseky. Úseky slučují prvky, které mají určité společné charakteristické vlastnosti. To znamená, že v každé síti lze nalézt alespoň jeden úsek. Pro síť s N prvky vytvoříme K úseků s N k prvky, pro něž platí 6.1 Rozlišování vzorů Základem optických neuronových sítí je rozlišování vstupních obrazců a vzorů. Ke správnému rozpoznání musí síť projít stádiem učení. Data mají obvykle velké množství nepodstatných informací. K vybírání těch podstatných slouží tzv. klasifikátory. Klasifikátor je mechanismus, který vybírá vlastnosti objektu. Má za úkol snižovat pravděpodobnost chyby, která může vzniknout chybným vyhodnocením nebo překrýváním dat. Klasifikátor se testuje nezávisle na trénovacím souboru dat. Pokud jsou klasifikátory známé lze je přímo síti nadefinovat. Klasifikátory dělíme na: Bayesův optimalizační klasifikátor lineární klasifikátory kvadratické klasifikátory klasifikátor k-nejbližších sousedů umělé neuronové sítě K N = N k. k = 1 Bayesův klasifikátor Bayesův klasifikátor vybírá jednu vlastnost ze dvou nebo více možných. Podle výsledku zařazuje objekt do příslušné třídy. Třídy vybírá podle nejpravděpodobnějšího výskytu. Každá vlastnost má své rozložení pravděpodobnosti. Toto rozložení pravděpodobnosti nebo hustoty pravděpodobnosti může zasahovat do jiné třídy. Tím může tento klasifikátor způsobit chybu ve vyhodnocení. Přesto klasifikátor způsobuje během učení minimální chyby a lze předpokládat, že chyby budou minimální i v pracovním režimu. Lineární klasifikátory Jsou to lineární rozlišovací funkce. Použití tohoto klasifikátoru předpokládá (kovarianci) u trénovacího souboru. stejnou míru vazby Kvadratické klasifikátory Jsou to kvadratické rozlišovací funkce, jako je např. elipsa a parabola. Tyto klasifikátory, na rozdíl od lineárních, počítají kovariantní vztahy pro každou třídu zvlášť. Klasifikátor k nejbližších sousedů Za nejbližšího souseda se považuje v N-dimenzionální vrstvě ta informace, která má podle Eukleidovského vyjádření nejblíže k předváděnému vzoru. Velmi oblíbený je klasifikátor s k=1. Nevýhodou tohoto klasifikátoru je potřeba velké výpočetní kapacity. Zpracování obrazu Obraz (vzor) je soubor bodů většinou v jedné rovině. Každý bod může nabývat buď binárních hodnot, nebo může představovat stupně šedé či různé odstíny barvy

15 Neuronové sítě se sdílenými vahami zpracovávají tyto obrazy dvěmi metodami. Jsou to metody porovnávání se vzorem a metody filtrování. Filtrování je definováno jako mapování okolí pixelu do samotného pixelu (včetně jeho původní hodnoty). Definované okolí musí být větší než pixel, ale menší než celý obraz. Diskrétní obraz filtru f(x,y) je reprezentován oknem obsahujícím funkční hodnoty pro jednotlivé pozice, ze kterých určujeme střední hodnotu. Filtry jsou používány k zvýraznění obrazu, nalezení obrysů, k obnovení obrazu a k odfiltrování detailů. Srovnávání se vzorem je způsob izolování určitých vlastností v obraze. Je to obdobný způsob jako filtrování, ale má jiný výsledek. Srovnávání části obrazu se vzorem (např. okno 3x3) dává výsledné vysoké hodnoty tam, kde obraz a vzor sobě navzájem odpovídají, a nízkou hodnotu tam, kde jsou rozdílné. Proto se srovnávání používá jako kritérium shodnosti. Využití např. ve vojenství k rozlišování tvaru letadel, k identifikaci osob. 6.2 Komprese dat Komprese se provádí tak, že síť učíme na identitu, tedy má stejný vstup a výstup. Vnitřní vrstva musí mít méně neuronů než vstupní a výstupní. Pak je síť nucená vícerozměrný vstup transformovat do méně rozměrného prostoru reprezentovaného vnitřní vrstvou. Síť se pak rozstřihne ve střední vrstvě a její přední část se používá pro kompresi a zadní část pro dekompresi. 6.3 Předvídání dat K předvídání dat je zapotřebí dlouhodobých záznamů, ze kterých se vybírá určitý úsek a hledá se závislost následujícího výstupu na tomto předcházejícím úseku dat. Př.: Předpověď teploty na základě dlouhodobé statistiky a např. týdenního průběhu teplot. Př.: Předzásobení benzinových pump, na základě dlouhodobých zkušeností, podle místa, ročního období, svátků, datumu, počasí, atd. (učení této sítě trvalo přibližně půl roku). 6.4 Určení stavu Perceptronová síť s back propagation se využívá pro zjišťování srdeční arytmie. K učení byly použito EKG a vyjádření skupiny odborníků. Po natrénování síť vyhodnocuje arytmii lépe než 90% lékařů. literatura [1] ST 8/96 (nevybráno vše) [2] PC World 4/97 [3] soft. Noviny 6/98 [4] Novák: Umělé neuronové sítě [5] Diplomové práce MU a UP

5. Umělé neuronové sítě. Neuronové sítě

5. Umělé neuronové sítě. Neuronové sítě Neuronové sítě Přesný algoritmus práce přírodních neuronových systémů není doposud znám. Přesto experimentální výsledky na modelech těchto systémů dávají dnes velmi slibné výsledky. Tyto systémy, včetně

Více

Umělé neuronové sítě

Umělé neuronové sítě Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační

Více

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013 Ambasadoři přírodovědných a technických oborů Ing. Michal Řepka Březen - duben 2013 Umělé neuronové sítě Proč právě Neuronové sítě? K čemu je to dobré? Používá se to někde v praxi? Úvod Umělé neuronové

Více

Rosenblattův perceptron

Rosenblattův perceptron Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného

Více

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015 Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační

Více

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc Neuronové sítě a možnosti jejich využití Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc 1. Biologický neuron Osnova 2. Neuronové sítě Umělý neuron

Více

Trénování sítě pomocí učení s učitelem

Trénování sítě pomocí učení s učitelem Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup

Více

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44 Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný

Více

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení. Základní pojmy z oblasti neuronových sítí Zde je uveden přehled některých základních pojmů z oblasti neuronových sítí. Tento přehled usnadní studium a pochopení předmětu. ADALINE - klasická umělá neuronová

Více

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby Algoritmy a struktury neuropočítačů ASN P4 Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby Vrstevnatá struktura - vícevrstvé NN (Multilayer NN, MLNN) vstupní vrstva (input layer)

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 1/26 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information

Více

Algoritmy a struktury neuropočítačů ASN - P11

Algoritmy a struktury neuropočítačů ASN - P11 Aplikace UNS při rozpoznání obrazů Základní úloha segmentace obrazu rozdělení obrazu do několika významných oblastí klasifikační úloha, clusterová analýza target Metody Kohonenova metoda KSOM Kohonenova

Více

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík,, CSc. NEURONOVÉ SÍTĚ otázky a odpovědi 1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma

Více

Neuronové sítě Ladislav Horký Karel Břinda

Neuronové sítě Ladislav Horký Karel Břinda Neuronové sítě Ladislav Horký Karel Břinda Obsah Úvod, historie Modely neuronu, aktivační funkce Topologie sítí Principy učení Konkrétní typy sítí s ukázkami v prostředí Wolfram Mathematica Praktické aplikace

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.

Více

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

Neuronové časové řady (ANN-TS)

Neuronové časové řady (ANN-TS) Neuronové časové řady (ANN-TS) Menu: QCExpert Prediktivní metody Neuronové časové řady Tento modul (Artificial Neural Network Time Series ANN-TS) využívá modelovacího potenciálu neuronové sítě k predikci

Více

Neuronové sítě v DPZ

Neuronové sítě v DPZ Univerzita J. E. Purkyně v Ústí nad Labem Fakulta životního prostředí Neuronové sítě v DPZ Seminární práce z předmětu Dálkový průzkum Země Vypracovali: Jan Lantora Rok: 2006 Zuzana Vašková Neuronové sítě

Více

K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder

K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami Josef Keder Motivace Předpověď budoucí úrovně znečištění ovzduší s předstihem v řádu alespoň několika hodin má význam

Více

PV021: Neuronové sítě. Tomáš Brázdil

PV021: Neuronové sítě. Tomáš Brázdil 1 PV021: Neuronové sítě Tomáš Brázdil Cíl předmětu 2 Na co se zaměříme Základní techniky a principy neuronových sítí (NS) Přehled základních modelů NS a jejich použití Co si (doufám) odnesete Znalost základních

Více

Státnice odborné č. 20

Státnice odborné č. 20 Státnice odborné č. 20 Shlukování dat Shlukování dat. Metoda k-středů, hierarchické (aglomerativní) shlukování, Kohonenova mapa SOM Shlukování dat Shluková analýza je snaha o seskupení objektů do skupin

Více

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních

Více

3. Vícevrstvé dopředné sítě

3. Vícevrstvé dopředné sítě 3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze

Více

Úloha - rozpoznávání číslic

Úloha - rozpoznávání číslic Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání

Více

Principy počítačů I Netradiční stroje

Principy počítačů I Netradiční stroje Principy počítačů I Netradiční stroje snímek 1 Principy počítačů Část X Netradiční stroje VJJ 1 snímek 2 Netradiční procesory architektury a organizace počítačů, které se vymykají struktuře popsané Johnem

Více

Neuropočítače. podnět. vnímání (senzory)

Neuropočítače. podnět. vnímání (senzory) Neuropočítače Princip inteligentního systému vnímání (senzory) podnět akce (efektory) poznání plánování usuzování komunikace Typické vlastnosti inteligentního systému: schopnost vnímat podněty z okolního

Více

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně Aplikace UNS v biomedicíně aplikace v medicíně postup při zpracování úloh Aplikace UNS v medicíně Důvod: nalezení exaktnějších, levnějších a snadnějších metod určování diagnóz pro lékaře nalezení šetrnějších

Více

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky Neuronové sítě Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky Motivace pro výzkum umělých neuronových sítí lidský mozek pracuje jiným způsobem než běžné číslicové počítače počítače přesně

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

Algoritmy a struktury neuropočítačů ASN P3

Algoritmy a struktury neuropočítačů ASN P3 Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností

Více

U Úvod do modelování a simulace systémů

U Úvod do modelování a simulace systémů U Úvod do modelování a simulace systémů Vyšetřování rozsáhlých soustav mnohdy nelze provádět analytickým výpočtem.často je nutné zkoumat chování zařízení v mezních situacích, do kterých se skutečné zařízení

Více

2. RBF neuronové sítě

2. RBF neuronové sítě 2. RBF neuronové sítě Kapitola pojednává o neuronových sítích typu RBF. V kapitole je popsána základní struktura tohoto typu neuronové sítě. Poté následuje definice a charakteristika jednotlivých radiálně

Více

Algoritmy a struktury neuropočítačů ASN - P1

Algoritmy a struktury neuropočítačů ASN - P1 Algoritmy a struktury neuropočítačů ASN - P1 http://amber.feld.cvut.cz/ssc www.janatuckova.cz Prof.Ing. Jana Tučková,CSc. Katedra teorie obvodů K331 kancelář: 614, B3 tel.: 224 352 098 e-mail: tuckova@fel.cvut.cz

Více

Úvod do optimalizace, metody hladké optimalizace

Úvod do optimalizace, metody hladké optimalizace Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady

Více

Aplikovaná numerická matematika

Aplikovaná numerická matematika Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních

Více

OSA. maximalizace minimalizace 1/22

OSA. maximalizace minimalizace 1/22 OSA Systémová analýza metodika používaná k navrhování a racionalizaci systémů v podmínkách neurčitosti vyšší stupeň operační analýzy Operační analýza (výzkum) soubor metod umožňující řešit rozhodovací,

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou

Více

Automatizace je proces při němž je řídicí funkce člověka nahrazována činností

Automatizace je proces při němž je řídicí funkce člověka nahrazována činností Automatizace je proces při němž je řídicí funkce člověka nahrazována činností různých přístrojů a zařízení. (Mechanizace, Automatizace, Komplexní automatizace) Kybernetika je Věda, která zkoumá obecné

Více

Usuzování za neurčitosti

Usuzování za neurčitosti Usuzování za neurčitosti 25.11.2014 8-1 Usuzování za neurčitosti Hypotetické usuzování a zpětná indukce Míry postačitelnosti a nezbytnosti Kombinace důkazů Šíření pravděpodobnosti v inferenčních sítích

Více

13 Barvy a úpravy rastrového

13 Barvy a úpravy rastrového 13 Barvy a úpravy rastrového Studijní cíl Tento blok je věnován základním metodám pro úpravu rastrového obrazu, jako je např. otočení, horizontální a vertikální překlopení. Dále budo vysvětleny různé metody

Více

Algoritmizace diskrétních. Ing. Michal Dorda, Ph.D.

Algoritmizace diskrétních. Ing. Michal Dorda, Ph.D. Algoritmizace diskrétních simulačních modelů Ing. Michal Dorda, Ph.D. 1 Úvodní poznámky Při programování simulačních modelů lze hlavní dílčí problémy shrnout do následujících bodů: 1) Zachycení statických

Více

SIGNÁLY A LINEÁRNÍ SYSTÉMY

SIGNÁLY A LINEÁRNÍ SYSTÉMY SIGNÁLY A LINEÁRNÍ SYSTÉMY prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz VII. SYSTÉMY ZÁKLADNÍ POJMY SYSTÉM - DEFINICE SYSTÉM (řec.) složené, seskupené (v

Více

Matematická morfologie

Matematická morfologie / 35 Matematická morfologie Karel Horák Rozvrh přednášky:. Úvod. 2. Dilatace. 3. Eroze. 4. Uzavření. 5. Otevření. 6. Skelet. 7. Tref či miň. 8. Ztenčování. 9. Zesilování..Golayova abeceda. 2 / 35 Matematická

Více

Dijkstrův algoritmus

Dijkstrův algoritmus Dijkstrův algoritmus Hledání nejkratší cesty v nezáporně hranově ohodnoceném grafu Necht je dán orientovaný graf G = (V, H) a funkce, která každé hraně h = (u, v) H přiřadí nezáporné reálné číslo označované

Více

= je prostý orientovaný graf., formálně c ( u, v) 0. dva speciální uzly: zdrojový uzel s a cílový uzel t. Dále budeme bez

= je prostý orientovaný graf., formálně c ( u, v) 0. dva speciální uzly: zdrojový uzel s a cílový uzel t. Dále budeme bez Síť Síť je čtveřice N = ( G, s, t, c) kde G ( V, A) = je prostý orientovaný graf a každé orientované hraně ( u, v) je přiřazeno nezáporné číslo, které se nazývá kapacita hrany ( u, v), formálně c ( u,

Více

Využití neuronové sítě pro identifikaci realného systému

Využití neuronové sítě pro identifikaci realného systému 1 Portál pre odborné publikovanie ISSN 1338-0087 Využití neuronové sítě pro identifikaci realného systému Pišan Radim Elektrotechnika 20.06.2011 Identifikace systémů je proces, kdy z naměřených dat můžeme

Více

Jasové transformace. Karel Horák. Rozvrh přednášky:

Jasové transformace. Karel Horák. Rozvrh přednášky: 1 / 23 Jasové transformace Karel Horák Rozvrh přednášky: 1. Úvod. 2. Histogram obrazu. 3. Globální jasová transformace. 4. Lokální jasová transformace. 5. Bodová jasová transformace. 2 / 23 Jasové transformace

Více

Teorie systémů TES 1. Úvod

Teorie systémů TES 1. Úvod Evropský sociální fond. Praha & EU: Investujeme do vaší budoucnosti. Teorie systémů TES 1. Úvod ZS 2011/2012 prof. Ing. Petr Moos, CSc. Ústav informatiky a telekomunikací Fakulta dopravní ČVUT v Praze

Více

ELT1 - Přednáška č. 6

ELT1 - Přednáška č. 6 ELT1 - Přednáška č. 6 Elektrotechnická terminologie a odborné výrazy, měřicí jednotky a činitelé, které je ovlivňují. Rozdíl potenciálů, elektromotorická síla, napětí, el. napětí, proud, odpor, vodivost,

Více

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague 1 / 40 regula Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague regula 1 2 3 4 5 regula 6 7 8 2 / 40 2 / 40 regula Iterační pro nelineární e Bud f reálná funkce

Více

Úvod do zpracování signálů

Úvod do zpracování signálů 1 / 25 Úvod do zpracování signálů Karel Horák Rozvrh přednášky: 1. Spojitý a diskrétní signál. 2. Spektrum signálu. 3. Vzorkovací věta. 4. Konvoluce signálů. 5. Korelace signálů. 2 / 25 Úvod do zpracování

Více

Učící se klasifikátory obrazu v průmyslu

Učící se klasifikátory obrazu v průmyslu Učící se klasifikátory obrazu v průmyslu FCC průmyslové systémy s.r.o. FCC průmyslové systémy je technicko obchodní společností, působící v oblasti průmyslové automatizace. Tvoří ji dvě základní divize:

Více

Globální matice konstrukce

Globální matice konstrukce Globální matice konstrukce Z matic tuhosti a hmotnosti jednotlivých prvků lze sestavit globální matici tuhosti a globální matici hmotnosti konstrukce, které se využijí v řešení základní rovnice MKP: [m]{

Více

(Cramerovo pravidlo, determinanty, inverzní matice)

(Cramerovo pravidlo, determinanty, inverzní matice) KMA/MAT1 Přednáška a cvičení, Lineární algebra 2 Řešení soustav lineárních rovnic se čtvercovou maticí soustavy (Cramerovo pravidlo, determinanty, inverzní matice) 16 a 21 října 2014 V dnešní přednášce

Více

jednoduchá heuristika asymetrické okolí stavový prostor, kde nelze zabloudit připustit zhoršují cí tahy Pokročilé heuristiky

jednoduchá heuristika asymetrické okolí stavový prostor, kde nelze zabloudit připustit zhoršují cí tahy Pokročilé heuristiky Pokročilé heuristiky jednoduchá heuristika asymetrické stavový prostor, kde nelze zabloudit připustit zhoršují cí tahy pokročilá heuristika symetrické stavový prostor, který vyžaduje řízení 1 2 Paměť pouze

Více

7. Rozdělení pravděpodobnosti ve statistice

7. Rozdělení pravděpodobnosti ve statistice 7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,

Více

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Dálkový průzkum Země Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Klasifikace založené na strojovém učení Strojové učení je podoblastí umělé inteligence, zabývající se algoritmy

Více

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ Michal Kořenář 1 Abstrakt Rozvoj výpočetní techniky v poslední době umožnil také rozvoj výpočetních metod, které nejsou založeny na bázi

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

Úvod do modelování a simulace. Ing. Michal Dorda, Ph.D.

Úvod do modelování a simulace. Ing. Michal Dorda, Ph.D. Úvod do modelování a simulace systémů Ing. Michal Dorda, Ph.D. 1 Základní pojmy Systém systémem rozumíme množinu prvků (příznaků) a vazeb (relací) mezi nimi, která jako celek má určité vlastnosti. Množinu

Více

Klasifikace předmětů a jevů

Klasifikace předmětů a jevů Klasifikace předmětů a jevů 1. Úvod Rozpoznávání neboli klasifikace je základní znak lidské činnosti. Rozpoznávání (klasifikace) předmětů a jevů spočívá v jejich zařazování do jednotlivých tříd. Třídou

Více

Fuzzy regulátory Mamdaniho a Takagi-Sugenova typu. Návrh fuzzy regulátorů: F-I-A-D v regulátorech Mamdaniho typu. Fuzzifikace. Inference. Viz. obr.

Fuzzy regulátory Mamdaniho a Takagi-Sugenova typu. Návrh fuzzy regulátorů: F-I-A-D v regulátorech Mamdaniho typu. Fuzzifikace. Inference. Viz. obr. Fuzzy regulátory Mamdaniho a Takagi-Sugenova typu Návrh fuzzy regulátorů: Fuzzifikace, (fuzzyfikace), (F) Inference, (I), Agregace, (A), Defuzzifikace (defuzzyfikace) (D). F-I-A-D v regulátorech Mamdaniho

Více

GIS Geografické informační systémy

GIS Geografické informační systémy GIS Geografické informační systémy Obsah přednášky Prostorové vektorové modely Špagetový model Topologický model Převody geometrií Vektorový model Reprezentuje reálný svět po jednotlivých složkách popisu

Více

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti. Přednáška č. 1 Úvod do statistiky a počtu pravděpodobnosti Statistika Statistika je věda a postup jak rozvíjet lidské znalosti použitím empirických dat. Je založena na matematické statistice, která je

Více

Rozdělování dat do trénovacích a testovacích množin

Rozdělování dat do trénovacích a testovacích množin Rozdělování dat do trénovacích a testovacích množin Marcel Jiřina Rozpoznávání je důležitou metodou při zpracování reálných úloh. Rozpoznávání je definováno dvěma kroky a to pořízením dat o reálném rozpoznávaném

Více

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

5. Lokální, vázané a globální extrémy

5. Lokální, vázané a globální extrémy 5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,

Více

Kontingenční tabulky v MS Excel 2010

Kontingenční tabulky v MS Excel 2010 Kontingenční tabulky v MS Excel 2010 Autor: RNDr. Milan Myšák e-mail: milan.mysak@konero.cz Obsah 1 Vytvoření KT... 3 1.1 Data pro KT... 3 1.2 Tvorba KT... 3 2 Tvorba KT z dalších zdrojů dat... 5 2.1 Data

Více

11. Tabu prohledávání

11. Tabu prohledávání Jan Schmidt 2011 Katedra číslicového návrhu Fakulta informačních technologií České vysoké učení technické v Praze Zimní semestr 2011/12 MI-PAA EVROPSKÝ SOCIÁLNÍ FOND PRAHA & EU: INVESTUJENE DO VAŠÍ BUDOUCNOSTI

Více

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 DOLOVÁNÍ V DATECH (DATA MINING) OBJEVUJE SE JIŽ OD 60. LET 20. ST. S ROZVOJEM POČÍTAČOVÉ TECHNIKY DEFINICE PROCES VÝBĚRU, PROHLEDÁVÁNÍ A MODELOVÁNÍ

Více

5 Orientované grafy, Toky v sítích

5 Orientované grafy, Toky v sítích Petr Hliněný, FI MU Brno, 205 / 9 FI: IB000: Toky v sítích 5 Orientované grafy, Toky v sítích Nyní se budeme zabývat typem sít ových úloh, ve kterých není podstatná délka hran a spojení, nýbž jejich propustnost

Více

StatSoft Úvod do neuronových sítí

StatSoft Úvod do neuronových sítí StatSoft Úvod do neuronových sítí Vzhledem k vzrůstající popularitě neuronových sítí jsme se rozhodli Vám je v tomto článku představit a říci si něco o jejich využití. Co si tedy představit pod pojmem

Více

Přednáška 13 Redukce dimenzionality

Přednáška 13 Redukce dimenzionality Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /

Více

Odečítání pozadí a sledování lidí z nehybné kamery. Ondřej Šerý

Odečítání pozadí a sledování lidí z nehybné kamery. Ondřej Šerý Odečítání pozadí a sledování lidí z nehybné kamery Ondřej Šerý Plán Motivace a popis úlohy Rozdělení úlohy na tři části Detekce pohybu Detekce objektů Sledování objektů Rozbor každé z částí a nástin několika

Více

IB112 Základy matematiky

IB112 Základy matematiky IB112 Základy matematiky Řešení soustavy lineárních rovnic, matice, vektory Jan Strejček IB112 Základy matematiky: Řešení soustavy lineárních rovnic, matice, vektory 2/53 Obsah Soustava lineárních rovnic

Více

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC .6. VLASTNÍ ČÍSLA A VEKTORY MATIC V této kapitole se dozvíte: jak jsou definována vlastní (charakteristická) čísla a vektory čtvercové matice; co je to charakteristická matice a charakteristický polynom

Více

Úvodem Dříve les než stromy 3 Operace s maticemi

Úvodem Dříve les než stromy 3 Operace s maticemi Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace Vektory a matice Aplikovaná matematika I Dana Říhová Mendelu Brno Obsah 1 Vektory Základní pojmy a operace Lineární závislost a nezávislost vektorů 2 Matice Základní pojmy, druhy matic Operace s maticemi

Více

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných

Více

4EK201 Matematické modelování. 2. Lineární programování

4EK201 Matematické modelování. 2. Lineární programování 4EK201 Matematické modelování 2. Lineární programování 2.1 Podstata operačního výzkumu Operační výzkum (výzkum operací) Operational research, operations research, management science Soubor disciplín zaměřených

Více

Algoritmizace prostorových úloh

Algoritmizace prostorových úloh INOVACE BAKALÁŘSKÝCH A MAGISTERSKÝCH STUDIJNÍCH OBORŮ NA HORNICKO-GEOLOGICKÉ FAKULTĚ VYSOKÉ ŠKOLY BÁŇSKÉ - TECHNICKÉ UNIVERZITY OSTRAVA Algoritmizace prostorových úloh Grafové úlohy Daniela Szturcová Tento

Více

OPTIMALIZACE. (přehled metod)

OPTIMALIZACE. (přehled metod) OPTIMALIZACE (přehled metod) Typy optimalizačních úloh Optimalizace bez omezení Nederivační metody Derivační metody Optimalizace s omezeními Lineární programování Nelineární programování Globální optimalizace

Více

Jaroslav Tuma. 8. února 2010

Jaroslav Tuma. 8. února 2010 Semestrální práce z předmětu KMA/MM Odstraňování šumu z obrazu Jaroslav Tuma 8. února 2010 1 1 Zpracování obrazu Zpracování obrazu je disciplína zabývající se zpracováním obrazových dat různého původu.

Více

VY_32_INOVACE_E 15 03

VY_32_INOVACE_E 15 03 Název a adresa školy: Střední škola průmyslová a umělecká, Opava, příspěvková organizace, Praskova 399/8, Opava, 746 01 Název operačního programu: OP Vzdělávání pro konkurenceschopnost, oblast podpory

Více

Modelování a simulace Lukáš Otte

Modelování a simulace Lukáš Otte Modelování a simulace 2013 Lukáš Otte Význam, účel a výhody MaS Simulační modely jsou nezbytné pro: oblast vědy a výzkumu (základní i aplikovaný výzkum) analýzy složitých dyn. systémů a tech. procesů oblast

Více

GIS Geografické informační systémy

GIS Geografické informační systémy GIS Geografické informační systémy Obsah přednášky Prostorové vektorové modely Špagetový model Topologický model Převody geometrií Vektorový model Reprezentuje reálný svět po jednotlivých složkách popisu

Více

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky Neuronové sítě AIL002 Iveta Mrázová 1 František Mráz 2 1 Katedra softwarového inženýrství 2 Kabinet software a výuky informatiky Do LATEXu přepsal: Tomáš Caithaml Učení s učitelem Rozpoznávání Použití:

Více

SIGNÁLY A LINEÁRNÍ SYSTÉMY

SIGNÁLY A LINEÁRNÍ SYSTÉMY SIGNÁLY A LINEÁRNÍ SYSTÉMY prof. Ing. Jiří Holčík, CSc. holcik@iba.muni.cziba.muni.cz II. SIGNÁLY ZÁKLADNÍ POJMY SIGNÁL - DEFINICE SIGNÁL - DEFINICE Signál je jev fyzikální, chemické, biologické, ekonomické

Více

1 0 0 u 22 u 23 l 31. l u11

1 0 0 u 22 u 23 l 31. l u11 LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23

Více

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

Pokročilé operace s obrazem

Pokročilé operace s obrazem Získávání a analýza obrazové informace Pokročilé operace s obrazem Biofyzikální ústav Lékařské fakulty Masarykovy univerzity Brno prezentace je součástí projektu FRVŠ č.2487/2011 (BFÚ LF MU) Získávání

Více

Pokročilé neparametrické metody. Klára Kubošová

Pokročilé neparametrické metody. Klára Kubošová Klára Kubošová Další typy stromů CHAID, PRIM, MARS CHAID - Chi-squared Automatic Interaction Detector G.V.Kass (1980) nebinární strom pro kategoriální proměnné. Jako kriteriální statistika pro větvení

Více

Zpracování neurčitosti

Zpracování neurčitosti Zpracování neurčitosti Úvod do znalostního inženýrství, ZS 2015/16 7-1 Usuzování za neurčitosti Neurčitost: Při vytváření ZS obvykle nejsou všechny informace naprosto korektní mohou být víceznačné, vágní,

Více

1 Modelování systémů 2. řádu

1 Modelování systémů 2. řádu OBSAH Obsah 1 Modelování systémů 2. řádu 1 2 Řešení diferenciální rovnice 3 3 Ukázka řešení č. 1 9 4 Ukázka řešení č. 2 11 5 Ukázka řešení č. 3 12 6 Ukázka řešení č. 4 14 7 Ukázka řešení č. 5 16 8 Ukázka

Více

Neuronové sítě (11. přednáška)

Neuronové sítě (11. přednáška) Neuronové sítě (11. přednáška) Machine Learning Naučit stroje se učit O co jde? Máme model výpočtu (t.j. výpočetní postup jednoznačně daný vstupy a nějakými parametry), chceme najít vhodné nastavení parametrů,

Více

Všeobecná rovnováha 1 Statistický pohled

Všeobecná rovnováha 1 Statistický pohled Makroekonomická analýza přednáška 4 1 Všeobecná rovnováha 1 Statistický pohled Předpoklady Úspory (resp.spotřeba) a investice (resp.kapitál), kterými jsme se zabývali v minulých lekcích, jsou spolu s technologickým

Více