Neuronové sítě výuka2

Save this PDF as:
 WORD  PNG  TXT  JPG

Rozměr: px
Začít zobrazení ze stránky:

Download "Neuronové sítě výuka2"

Transkript

1 Neuronové sítě výuka2 Neuronové sítě jsou definovány jako nedeklarativní systémy umělé inteligence. Nedeklarativní jsou v tom smyslu, že nemusíme předem definovat pravidla, kterými se neuronová síť řídí. Pravidla řešení se stanovují až během učení. Neuronové sítě umožňují ideální řešení sítí, neboť jimi realizované sítě nezávisí na topologii a ani na propojovacích prvcích. Nevýhodou jsou velké nároky na uživatele jak v přípravě dat tak i v trénování. Protože neznáme pravidla, vytváříme si je během trénování tedy vytváříme určité nejistoty v řešení úlohy, což je fuzzy logika. Fuzzy logika matematicky vyjadřuje zachycené nejistoty spojené s poznávacím procesem. Poskytuje interferenční mechanizmus pro poznávání nejistoty. Tato řešení se nehodí pro úlohy, kde nesmí být nejistota, což je například finančnictví, účetnictví apod. Výsledky řešení nezávisí na topologii sítě, ale jen na vstupní, skryté a výstupní vrstvě jako celku. Na topologii závisí pouze jak síť pracuje (jak rychle, jakým způsobem). 1. Základní pojmy neuronové sítě Definice: Neuronová síť je orientovaný graf s ohodnocenými hranami kde rozeznáváme uzly vstupní, výstupní a skryté, a kde hrany reprezentují tok signálu. Hrany jsou ohodnoceny parametrem zpracování signálu, který je nazýván vahou. [3] Spojení mezi dvěma neurony má vždy svůj směr, takže je určen neuron, ze kterého proudí informace a do kterého. Propojení mohou být i obousměrná. Významnou vlastností spojení je váha, která určuje schopnost a intenzitu přenášení informace. Váha může mít kladnou i zápornou hodnotu, takže se neurony mohou navzájem povzbuzovat nebo potlačovat. [1] Neuron je samostatně pracující element s mnoha vstupy a většinou jedním výstupem. Výstupní signál je závislý pouze na vstupních úrovních. Neurony jsou stavební buňky mozku specializované na přenos, zpracování a uchovávání informací. Princip neuronu spočívá v procesu učení, při kterém se celý systém adaptuje podle optimalizačních algoritmů, aby co nejlépe vyřešil zadanou úlohu. Neuronové biologické systémy nejsou založeny na modelu, ale na nejistotě, nepřesnosti,složitosti a aproximace. Přesto jsou velmi úspěšné. Integrací fuzzy logiky a neuronových sítí vznikly fuzzy-neuronové sítě. 2. Topologie sítě Neuronová síť se skládá ze tří vrstev neuronů vstupních (nejsou vzájemně propojeny) - slouží jen jako vstupy do další vrstvy skrytých (obvykle obsahuje mnohonásobně více neuronů, než zbývající vrstvy) zpracovávají signály, není u nich pro nás podstatný způsob zpracování a tedy ani mezivýsledky řešení. Může se skládat z více vrstev. výstupních převádí výsledky skryté vrstvy (vstupy do vrstvy) na výstupy. Vnitřní propojení je jednosměrné

2 Typy sítí: (podle propojení skryté vrstvy) 1. Obecná neuronová síť může v rámci skryté vrstvy obsahovat smyčky -cykly. Neurony mohou posílat informaci i samy sobě přímo nebo přes několik dalších neuronů (v rámci jedné vrstvy nebo přes více vrstev skryté vrstvy). (Plné červené - vstupní tečkované - zelené - skrytý šrafované - modré - výstupní Směry bez šipek jdou zleva doprava) Díky cyklickým vazbám nemusí dojít k výsledku. Tato topologie je vhodná pro paměťové sítě. 2. Acyklická neuronová síť je vhodnější pro řešení některých typů úloh. Lze u nich jednoznačně určit postup šíření informace přes jednotlivé neurony. Každý neuron tedy čerpá informace od svých předchůdců (může to být i neuron z další vrstvy skryté vrstvy). Je vhodná pro realizaci neuronové sítě na jednoprocesorovém počítači. 2.A. Zvláštní případ acyklické sítě, která je nejběžnější, je hierarchická síť. Obsahuje více skrytých vrstev, které mají více prvků než vrstvy vnější (i řádově). Informace proudí pouze zleva doprava.(není zde ani vazba mezi prvky jedné vrstvy). Zvláštní podskupiny tvoří sítě triviální - mají jen vstupní s výstupní vrstvu vícevrstvé mohou mít propojení i přes několik vrstev skryté vrstvy vrstvené výstupy jedné vrstvy jsou vždy vstupy další vrstvy skryté vrstvy

3 U živých živočichů, kteří mají hierarchickou síť neuronů, se počet skrytých vrstev pohybuje do 4. 2.B. Redukovaná síť Zvláštním případem hierarchické sítě je redukovaná síť, která má u vnitřních vrstev méně neuronů než u vnějších. Používá se při ztrátové kompresi dat související s přibližným uchováním a přenášením akustické a video informace. Vstupní neurony mají plné informace, které předají menšímu počtu skrytých neuronů za účelem zmenšení prostoru v paměti a posléze opět rekonstruována na původní počet výstupních neuronů. 3. Základní funkce neuronů Neuron je element, který realizuje přenosovou funkci. Tato funkce je tvořena jako součet všech rozdílů určených váhováním vstupních hodnot a jejich následným porovnáním s existující přenosovou funkcí. Přeponosová funkce může být skoková (např při hlasování je existující funkce 50% všech hlasů nebo součet překročí prahovou hodnotu), nebo.analogová (výstup se postupně (obecně nelineárně) mění) Lineární analogová přenosová fce je užívána ve vstupních vrstvách sítí, kdežto skoková jen u výstupní vrstvy sítě. Pak má binární výstup a neuron se nazývá preceptron. Pro optimalizaci musí mít všechny přenosové funkce spojitou 1. derivaci. (Vyjma koncové binární.) Přenosové analogové funkce Nejjednodušší funkcí je lineární funkce y= k*x*w y

4 x W y= k x w y Kde k je přenosová funkce přenosová funkce s prahováním y= k( x*w B) y x x W y= k (x w B) y X lineární sumační funkce y= k(suma( x*w)) w 1 x 1 w 2 y= k(suma( x*w)) y y x 2 sumační funkce s prahováním suma x y= k(suma(x*w-b)) y= k(suma(x*w-b)) x 1 w 1 y y x 2 w 2 suma x Následují příklady nejužívanějších funkcí sigmoida y = 1/(1+ e - x ) Následující graf je sestrojen pro =

5 y 1,2 1 0,8 0,6 0,4 0, x Řada1 hyperbolický tangens y (x) = tgh ( x) = (e x e - x ) / (e x + e - x ) Graf je sestrojen pro =2. y 1,5 1 0, , ,5 x Řada1 Struktura a činnost sítě Za neuronovou síť budeme považovat takovou strukturu pro rozprostřené paralelní zpracování informací, která se skládá z jistého (obvykle velmi vysokého) počtu N výkonných prvků (neuronů). Každý neuron transformuje vstupní signál na výstupní signál podle své přenosové (transformační) funkce. Při takové transformaci může neuron uplatnit i svoji lokální paměť. Přenosová funkce může působit buď spojitě nebo přerušovaně (opakovaně). Lokální paměť je často reprezentována hodnotami váhových koeficientů u jednotlivých vstupů (resp. ovlivňuje její obsah u opakovaně působících funkcí). Funkci neuronové sítě můžeme zapsat jako jistou transformaci vstupního signálu X = (x 1, x 2,..., x n ) na výstupní signál Y = (y 1, y 2,..., y m ) : Y = (X). 4. Metody učení Účelem učení je naučit síť pracovat tak, aby dávala správné výsledky. Toho se dosáhne nastavováním vah u jednotlivých vazeb. Tedy učením nastavujeme váhy tak, aby výsledky byly odpovídající. Učení rozlišujeme na učení s učitelem

6 učení bez učitele. Víme, že neuronové sítě mohou provést libovolné zobrazení (výpočet). Ke každému problému máme zajištěnu existenci řešící sítě. Nevíme ovšem, jak řešení najít. U biologických neuronů jsou znalosti uloženy v synapsích, ve formálním modelu jsou uloženy ve vahách příslušných spojů. Naučit síť řešit nějaký problém znamená nalézt hodnoty všech vah a prahů jednotlivých neuronů. Získání těchto hodnot přímým výpočtem synaptických vah neuronů (jako u binárních prahových neuronů) je nevhodné a ve většině případů i neuskutečnitelné. Proto hodnoty vah získáváme během tréninku sítě. Nastavování vah je součástí jednotlivých trénovacích metod a je nazýváno výukovým zákonem. Jedná se tedy o režim, který nazýváme adaptivní (učící). Po ukončení tohoto režimu přechází síť do režimu aktivního (vybavovacího). 4.1 Učení s učitelem Učení s učitelem můžeme popsat jednoduchým způsobem následovně. Předložíme-li na vstupy neuronové sítě zadání některého problému, síť na výstupech zareaguje podle momentálního nastavení vah a prahových úrovní. Výstup můžeme porovnat s požadovaným řešením a stanovit chybu. Na jejím základě se budeme snažit změnit váhy tak, aby při dalším řešení stejného zadání byla velikost chyby menší. Pro zobecnění řešení je potřeba stanovit trénovací množinu vstupních vzorů. Princip učení živých organizmů je podobný, i když pozice učitele nebývá vždy jednoznačně určena (bývají to nejčastěji různé okolní vlivy působící jako zpětná vazba). Máme-li vícevrstvou síť s m vstupními neurony x 1,,x m a n výstupními neurony o 1,...,o n, můžeme trénovací množinu zapsat jako: T = x 1, y 1, x 2, y 2,..., x P, y P, kde x p = (x 1 p,..., x m p ) je vektor vstupních hodnot a y p = (y 1 p,...,y n p ) je vektor požadovaných výstupních hodnot p-tého příkladu. T značí transformaci vstupních hodnot na výstupní a tedy lze symbolicky předcházející vztah zapsat jako T = [x, y] Trénovací množina obsahuje P příkladů, které se síť musí naučit; platí p P. Pak celková střední kvadratická odchylka sítě (nejčastěji používaná metoda vyhodnocení) je dána vztahem: 1 kde o p k je skutečný výstup k-tého neuronu ve výstupní vrstvě při předložení vstupu p-tého příkladu na neurony vstupní vrstvy, E je chybová funkce. Pak (y p k - o p k ) je rozdíl požadovaného a očekávaného výstupu. Neuronová síť se může naučit i to co nechceme. Dáváme-li například prvky trénovací množiny stále ve stejném pořadí, může se síť mezi nimi vytvořit souvislost. Chybová funkce E závisí na vstupech a na vahách sítě. Považujeme-li vektor vstupů (tj. trénovací množinu) za konstantní, stává se střední kvadratická odchylka jen funkcí vah neuronové sítě. Po úpravě vah je tedy funkce E pro stejnou trénovací množinu zase jen závislá na nastavení vah. Pomocí nastavování vah se snažíme P n E = ( (y k p - o k p ) 2 ), 2 p=1 k=1

7 chybovou funkci E minimalizovat. Vzhledem k tomu, že aktivační funkce neuronů jsou derivovatelné, je i E derivovatelná podle jednotlivých vah. Dále zavedeme parametr učení sítě, který označíme, a který budeme nazývat rychlostí učení. Tento parametr také určuje délku kroku iterace. Pak pro změnu váhy (gradientní metoda) platí: Tento vztah lze nahradit přibližným vztahem, ve kterém jsou za derivace dosazeny podíly diskrétních čísel ( w i ) t+1 = - ( E/ w i ) kde pravá strana je v čase t. E w i = - ( E/ w i ) minimum W i Bude-li hodnota parametru příliš vysoká, budou se vlastnosti sítě měnit rychle, ale bude i větší riziko, že přeskočíme hledané minimum chyby. Naopak, jestliže je hodnota příliš nízká, je učení pomalejší a síť se stává více náchylná k uváznutí v lokálním minimu chybové funkce. Příklady sítí s učením s učitelem: 1. perceptronová síť, 2. zpětné šíření chyb, 3. asociativní paměť (Hopfield). Perceptronová síť Prvky perceptronové sítě jsou perceptrony, což jsou neurony s binárními výstupy nebo s nelineárním výstupem (nelineární perceptron). Binární perceptrony se používají obvykle ve výstupní vrstvě. Perceptronová síť je vrstvená neuronová síť s dopřednými vazbami. Vstupy každého neuronu jedné vrstvy jsou napojeny na výstupy všech neuronů vrstvy předchozí. Neexistují žádné vazby mezi vzdálenějšími vrstvami nebo mezi neurony v rámci jedné vrstvy. Každý neuron má tedy právě tolik vstupů, kolik je neuronů v nižší vrstvě. Vstupní vrstva sítě slouží pouze k distribuci vstupních hodnot. Pro přenosovou funkci vrstvených perceptronových sítí není vhodná funkce skoková ani lineární (u lineárních funkcí nemá smysl vytvářet více vrstev, protože jedna vrstva lineárních neuronů provádí lineární zobrazení a skládáním více lineárních zobrazení dostaneme zase jen lineární zobrazení). Budeme tedy používat nelineární perceptrony. Ty používají jako aktivační funkci takovou funkci, která součet impulsů transformuje do intervalu 0,1, a to tak, že u vstupních hodnot v blízkosti nuly prudce roste, zatímco u vysokých a nízkých hodnot se mění jen nepatrně (tato

8 vlastnost je převzata od biologických neuronů). Tyto požadavky splňují již zmíněné nelineární aktivační funkce, z nichž nejčastěji se používá sigmoida g(x) = 1 / (1 + e - x ). Back Propagation Back propagation - algoritmus zpětného šíření neboli Sítě se zpětným šířením chyby. Algoritmus zpětného šíření chyby je nejdůležitějším a nejpoužívanějším algoritmem pro učení sítí. Základem je vrstvená síť, kde nejsou žádné zpětné vazby. Chyba se šíří zpětně přes všechny vrstvy k první vrstvě. Musí ale být známa vstupní a výstupní dvojice hodnot. Pro přenosovou funkci se u těchto sítí opět používá sigmoida a hyperbolický tangens. Učení podle tohoto algoritmu probíhá ve třech fázích. V první fázi je předloženo zadání. Na toto zadání reagují neurony jednotlivých vrstev sítě, postupně od vstupní vrstvy až po výstupní. Jakmile síť vrátí výstupní hodnoty, je možné zjistit chybu výstupu. Ve druhé fázi dochází k šíření informací o chybě, a to směrem od výstupní vrstvy zpět. Chybu neuronů ve skryté vrstvě určuje součet chyb neuronů následující vrstvy vynásobených odpovídajícími vahami. U vstupní vrstvy není třeba chybu zvažovat, neboť vstupní vrstva pouze distribuuje vstupní hodnoty. Ve třetí fázi, kdy už je pro každý neuron chyba známá, je možné podle pravidla učení adaptovat váhy. Realizace výpočtu chyby a nastavení vah se provádí připojením další části sítě k dané síti, tak, aby umožnila šíření informace od výstupu ke vstupu. Pak ale při provozu se musí tato část sítě odpojit (pokud se nejedná o stále se učící síť). Další způsob je realizace sítě na počítači, kdy se obvykle provádí výpočet změny vah mimo síť. Programy tak vypočtou nové koeficienty, které se poté u sítě nastaví. Učící cyklus je tvořen jednotlivými iteracemi popsanými výše. Každý vzor je během cyklu předložen síti právě jednou. Zkušenosti ukazují, že v případě, kdy jsou trénovací vzory navzájem nezávislé, není vhodné, jak již bylo řečeno, vzory předkládat ve stále stejném pořadí. V opakujících se sekvencích by totiž síť mohla nacházet nežádoucí závislosti. Back-propagation má však i několik nepříjemných vlastností. Především je to skutečnost, že chybová funkce je závislá na všech vahách a díky tomu je to funkce velice komplexní, tedy má mnoho lokálních minim. Gradientní metoda vede vždy do nejbližšího minima, které nemusí být globální. Druhým problémem je množství učících parametrů, které nejsou algoritmem určeny, a přitom na nich závisí úspěšná konvergence chybové funkce. Vhodné nastavení těchto parametrů může značně ovlivnit úspěšnost učení. Tato metoda konverguje relativně pomalu, zejména pro velké váhy, kde jsou změny sigmoidy velmi malé

9 Obr. Metoda back-propagation error. Plné šipky ukazují směr šíření signálu, zatímco čárkované směr šíření chyby. Vylepšení algoritmu se zpětným šířením chyby spočívá v zavedení setrvačnosti ve změnách vah, kdy změna váhy záleží i na velikosti předchozí změny váhy. Jiné vylepšení spočívá ve změně délky kroku. Další vylepšení může být v dynamické změně strmosti aktivační funkce; na začátku učení sítě se používá pozvolnější aktivační funkce s menším, ke konci učení se pak její strmost zvyšováním zvětšuje. Back-propagation však není algoritmem, který používá pro učení sítí příroda. Jeho výpočet je sice lokální, ale lokálnost je pro biologickou implementaci podmínkou nutnou, nikoliv však postačující. Problém spočívá v obousměrnosti spojů, kdy se po nich zpětně šíří chyba. Reálné axony nejsou v žádném případě obousměrné. Hopfieldův model Hopfieldův model je krok směrem od biologické reality. Používá totiž symetrické spoje mezi neurony, které v přírodě neexistují. Hopfieldův model neuronové sítě byl vytvořen jako asociativní paměť. Ta je tvořena neurony propojenými symetrickými spoji každý s každým. Propojení může být reprezentováno symetrickou maticí vah s nulovou hlavní diagonálou. Neurony mají dva stavy +1 (aktivovaný) a -1 (neaktivovaný) a provádějí prahový vážený součet, kde 1, pro a 0 sign (a) = -1, pro a 0 Postupným nastavováním vah model nepodstatné informace zapomíná a podstatné čím dál tím víc pamatuje (posiluje vazby). Kladný popud zesiluje vazbu, záporný zeslabuje. Postupuje tímto způsobem tak dlouho, až zůstanou jen potřebné vazby. Fáze učení bude začínat nastavením všech vah synaptických spojení na nulu. Neuronům přiřadíme hodnoty {+1, -1}. Potom změníme všechny váhy podle následujícího pravidla: jsou-li

10 spojeny neurony se stejnou hodnotou, zvýšíme hodnotu váhy o jedničku, pokud jsou spojeny neurony s rozdílnými hodnotami, hodnotu váhy o jedničku snížíme. Váha se zde mění, i když oba neurony jsou neaktivní [-1, -1], což neexistuje u biologických neuronů, jejichž funkce je popsána Hebbovým pravidlem, podle kterého se synaptické spojení mezi dvěma současně aktivovanými neurony posiluje. Tuto změnu vah opakujeme u všech postupně přiložených vzorů. Po naučení sítě hodnota váhy každého neuronu vyjadřuje rozdíl počtu vzorů, ve kterých se spojené neurony shodují svými hodnotami, a počtu vzorů, ve kterých se neshodují. Stav Hopfieldovy sítě je binární číslo, a má tedy konečný počet stavů. Při změně svého stavu klesá její energetická funkce, a proto nemůže dojít k jejich zacyklení. To znamená, že po konečném počtu kroků se musí dostat do stabilního stavu, kdy už žádné změny neuronů nemohou proběhnout. Obr. Hopfieldova síť Na rozdíl od vrstvených sítí perceptronů, které dávají odpověď ihned, Hopfieldův model potřebuje nějaký čas, aby se ustálil v určitém stabilním stavu. Kromě základního Hopfieldova modelu existují rozšířené varianty, které umožňují používat místo binárních hodnot hodnoty reálné nebo které si místo jednotlivých stabilních stavů pamatují celé jejich sekvence. 4.2 Učení bez učitele Učení bez učitele (učení samoorganizací - třídění) není založeno na vyhodnocování výstupu. Tato metoda vytváří zobecněný výstup jen na základě použitých vstupních vzorů. Před trénováním je obsah výstupu neznámý. Při učení bez učitele dostává síť na vstup množinu podnětů, které si sama utřídí. Například rozdělí podněty do skupin podle podobnosti a určí typického zástupce skupiny (model ART), nebo začne svojí konfigurací vah a tím topologií vystihovat vlastnosti vstupů (Kohonen). U tohoto typu učení dělíme paměť na dlouhodobou (LTM long term memory) a krátkodobou (STM short term memory). Dlouhodobá paměť je tvořena nastavením synaptických vah, které se pomalu mění. Kdežto krátkodobá paměť je tvořena okamžitým stavem vzruchů, které se každým okamžikem proměňují. Učením sítě se vybírají charakteristické rysy daných vzorů. Po určité době trénování lze dospět do stavu, kdy síť rozpoznává s dostatečnou spolehlivostí vstupy v aktivním režimu. Při dalším trénování může nastat situace, kdy dojde k takzvanému přetrénování sítě. To znamená, že charakteristické rysy už nejsou obecné, ale

11 odpovídají spíše jen trénovací sadě. To se projeví zvýšenou chybovostí v aktivním režimu. Proto je vhodné použít po každé iteraci testovací sadu znaků, která nemění nastavené váhy, abychom zjistili optimální nastavení vah. Pokud by se chybovost zvýšila, vrátíme se ke stavu, kde byla ideální. Příklady sítí s učením bez učitele 1. model ART 2. Kohonenova metoda starší metoda Kohonenova metoda Kohonenova síť je tvořena vrstvou n vstupních neuronů a druhou vrstvou Kohonenových neuronů, které jsou vzájemně propojeny každý s každým. Do každého z Kohonenových neuronů přichází spoje ze všech vstupních neuronů, každý Kohonenův neuron tedy čte vstupní vektor x. Vstupy jsou násobeny synaptickými vahami, takže každému Kohonenovu neuronu i přísluší vektor synaptických vah w i. Podstata Kohonenova modelu spočívá v tom, že vektor vah je stejně jako vektor vstupu n-prvkový. Prostor vah je totožný s prostorem vstupů. Kohonenovy neurony se navzájem ovlivňují, takže po krátké době se síť ustálí ve stavu, kdy bude excitovaný jen jeden neuron a to ten, který byl na počátku excitovaný nejvíc. Tedy v Kohonenově síti reaguje na vstup jen ten neuron, který je vstupu "nejpodobnější". Kohonenova síť se učí celý život, nemá fázi učení a fázi používání jako perceptrony nebo Hopfieldův model, učí se za provozu. Kohonenova síť se používá na roztříďování vstupů do skupin, přičemž tyto skupiny si síť sama vytvoří. Proto volba počtu neuronů u Kohonenova modelu má velký vliv na dosažené výsledky. Tento nedostatek odstraňuje algoritmus ART. Vylepšení učení Kohonenovy sítě se dá dosáhnout tím, že na vstup nebude reagovat jen jeden neuron, ale víc. Obr. Kohonenova síť Metoda ART (Adaptive Resonance Theory) Tento model se používá pro kategorizaci vstupních dat. Pokud předkládáme Kohonenově síti další a další data, nemáme zajištěnu stabilitu již vytvořených kategorií dat. Nová data mohou kategorii změnit. ART metoda vytváří tolik kategorií na výstupu, kolik je výstupů. Proto při volbě malého počtu výstupů dochází k prolínání kategorií, naopak při velkém počtu může dojít i ke stavu, že každému vzoru je přiřazena jedna kategorie. ART akceptuje vstup jen tehdy, je-li dostatečně podobný některému již existujícímu prototypu nějaké kategorie. Pokud není, vytvoří se nová kategorie se vstupem jako svým prototypem a je použita nová vstupní buňka. Tyto metody mohou pracovat jak s binárním, tak i s reálným vstupem

12 5. Fuzzy-neuronová síť Spojení fuzzy logiky a neuronových sítí vznikají systémy, kterými lze snadněji modelovat fuzzy problémy. Jeho vstupní veličiny a synaptické váhy mohou být fuzzy množiny. Schopnost neuronové sítě se učit spolu se schopností fuzzy logiky zpracovávat vágní, ne přesně definované, informace vede k vytvoření výkonných a adekvátních systémů. Teorie neuronových sítí poskytuje základní adaptační algoritmy, které lze po úpravě použít i pro fuzzy-neuronovou strukturu. Činnost fuzzy-neuronu se skládá ze dvou odlišných operací synaptická operace - váhy vstupních hodnot jsou spojeny s dlouhodobou pamětí. Váhy se adaptují v souladu s učícím algoritmem somatická operace jsou nelineární operace, které se nastavují během procesu učení tzn. mění se přenosová funkce. Přesáhne-li váha agregace tj. upravených vstupů zabudovaný práh, neuron (soma) generuje výstupní signál. U fuzzy neuronu je vstupní součet nahrazen tzv. agregací, která je obvykle fuzzy sjednocení. Vývoj fuzzy-neuro systémů se skládá 1. z vývoje modelu motivovaným biologickým neuronem 2. jeho modelováním pomocí synaptických spojení 3. vývoje učícího algoritmu pomocí vhodného přizpůsobování synaptických vah a somatických operací. Učení podporuje snahu vytvořit co nejvíce podobné vektory synaptických vah a vstupního vektoru nového vzoru. Učení může být na základě výstupů - bez učitele chyb - s učitelem, tzn., že je znám předem výsledek Nejběžnější algoritmus je algoritmus zpětného šíření chyb. Při modifikaci parametrů se od sebe liší neuronová a fuzzy-neuronová síť. U fuzzy se navíc modifikují i agregační funkce, prahy, přenosové funkce. Tyto modifikace urychlují výpočtový proces. Učení bez učitele zachycuje pravidelnosti ve vstupních vektorech bez přijímání jakékoliv další informace. Pomáhá vytvářet uzly pravidel. Učení s učitelem vyžaduje specifikaci výstupního vektoru a je nadřazené (algoritmy) učení bez učitele. Toto učení adaptuje funkce příslušnosti - vágnosti. Fuzzy neuronová síť má 5 vrstev. První vrstva je vstupní, Druhá vrstva provádí fuzifikaci proměnné (high,low), Třetí vrstva zobrazuje logická pravidla (např. AND) Čtvrtá vrstva je agregační (např. OR) Pátá vrstva je defuzifikace. Z páté - výstupní jsou vyvedeny dva výstupy. Jeden je trénovací a informace z něho vstupují do sítě a druhý je skutečný výstup ze sítě. low trénovací

13 high řádný Hybridní učící algoritmus se skládá z fáze samoorganizace (bez učitele), kdy se snaží nalézt fuzzy významná logická pravidla. Využívá trénovací data. Pak provádí shlukovou analýzu, ve které vybírá ty vstupní/výstupní oblasti, které mají smysl v úloze uvažovat. Pak je vybráno spojení (důsledek) s největší vahou (agregace) a ostatní jsou zrušena. Druhá fáze je učení s učitelem, kdy se používá algoritmus zpětného šíření chyby. Ladění systému [2] se provádí pomocí Trénovací data jsou datové věty určené trénování sítě Ověřovací data (Validation data) řeší problém přetrénování neuronové sítě. Při dlouhém trénování ztrácí síť vlastnosti zobecnění. Ověřovací data monitorují trénování. Ověřovací data jsou data, která nebyla použita k vytváření modelu. Testovací data jsou data k ověření funkce aplikace. Na rozdíl od fuzzy modelů, kde jsou znalosti vytvořeny explicitně, nejčastěji podmínkou if then, u neuronů jsou znalosti koncentrované v jejich vektoru synaptických vah. Převod (transformace) fuzzy modelu do F-N sítě. Model F-N sítě lze vytvořit pomocí 5ti vrstvé sítě. První vstupní vrstva má výstupy do druhé vrstvy, tak, že se jednotlivé vstupy ve druhé vrstvě vzájemně neovlivňují. Tím druhá vrstva vytváří hodnoty úměrné vstupní hodnotě, které jsou převedeny do fuzzy množiny. Každý neuron 3. vrstvy odpovídá jednomu podmíněnému pravidlu. Čtvrtá vrstva vypočítává výstupní proměnné. Neurony v 5. vrstvě sestavují výstupní vektor. Před učením sítě jsou váhové koeficienty nastaveny na 1. Adaptační procedura umožňuje pomocí back-propagation adaptovat tvary fuzzy množin (parametry) jazykových hodnot pravidel váhové koeficienty pravidel váhové koeficienty hodnot výpočtu. Chyba je dána E n = 0,5 (y vzor y výstup ) 2 Tato chyba je základem pro zpětnou vazbu, tj. signál na vstupu. 6. Aplikace Díky svým vlastnostem jsou neuronové sítě často nasazovány na řešení problémů, které nedokážeme přímo popsat. Důvody jsou různé; vstupní data mohou být poškozená nebo neúplná, nebo je řešení natolik komplikované, že jeho popis je

14 prakticky nemožný. Jediným způsobem popisu pro všechny takové problémy je stanovení množiny některých možných zadání a odpovídajících řešení daného problému. Takový popis označujeme jako trénovací množinu řešeného problému. Snahou tvůrců neuronových sítí je navrhovat neuronové sítě strukturovaně. Proto se sítě člení na menší části nejen podle geometrických hledisek, ale často mnohem jemněji. Vytvářené skupiny se nazývají úseky. Úseky slučují prvky, které mají určité společné charakteristické vlastnosti. To znamená, že v každé síti lze nalézt alespoň jeden úsek. Pro síť s N prvky vytvoříme K úseků s N k prvky, pro něž platí 6.1 Rozlišování vzorů Základem optických neuronových sítí je rozlišování vstupních obrazců a vzorů. Ke správnému rozpoznání musí síť projít stádiem učení. Data mají obvykle velké množství nepodstatných informací. K vybírání těch podstatných slouží tzv. klasifikátory. Klasifikátor je mechanismus, který vybírá vlastnosti objektu. Má za úkol snižovat pravděpodobnost chyby, která může vzniknout chybným vyhodnocením nebo překrýváním dat. Klasifikátor se testuje nezávisle na trénovacím souboru dat. Pokud jsou klasifikátory známé lze je přímo síti nadefinovat. Klasifikátory dělíme na: Bayesův optimalizační klasifikátor lineární klasifikátory kvadratické klasifikátory klasifikátor k-nejbližších sousedů umělé neuronové sítě K N = N k. k = 1 Bayesův klasifikátor Bayesův klasifikátor vybírá jednu vlastnost ze dvou nebo více možných. Podle výsledku zařazuje objekt do příslušné třídy. Třídy vybírá podle nejpravděpodobnějšího výskytu. Každá vlastnost má své rozložení pravděpodobnosti. Toto rozložení pravděpodobnosti nebo hustoty pravděpodobnosti může zasahovat do jiné třídy. Tím může tento klasifikátor způsobit chybu ve vyhodnocení. Přesto klasifikátor způsobuje během učení minimální chyby a lze předpokládat, že chyby budou minimální i v pracovním režimu. Lineární klasifikátory Jsou to lineární rozlišovací funkce. Použití tohoto klasifikátoru předpokládá (kovarianci) u trénovacího souboru. stejnou míru vazby Kvadratické klasifikátory Jsou to kvadratické rozlišovací funkce, jako je např. elipsa a parabola. Tyto klasifikátory, na rozdíl od lineárních, počítají kovariantní vztahy pro každou třídu zvlášť. Klasifikátor k nejbližších sousedů Za nejbližšího souseda se považuje v N-dimenzionální vrstvě ta informace, která má podle Eukleidovského vyjádření nejblíže k předváděnému vzoru. Velmi oblíbený je klasifikátor s k=1. Nevýhodou tohoto klasifikátoru je potřeba velké výpočetní kapacity. Zpracování obrazu Obraz (vzor) je soubor bodů většinou v jedné rovině. Každý bod může nabývat buď binárních hodnot, nebo může představovat stupně šedé či různé odstíny barvy

15 Neuronové sítě se sdílenými vahami zpracovávají tyto obrazy dvěmi metodami. Jsou to metody porovnávání se vzorem a metody filtrování. Filtrování je definováno jako mapování okolí pixelu do samotného pixelu (včetně jeho původní hodnoty). Definované okolí musí být větší než pixel, ale menší než celý obraz. Diskrétní obraz filtru f(x,y) je reprezentován oknem obsahujícím funkční hodnoty pro jednotlivé pozice, ze kterých určujeme střední hodnotu. Filtry jsou používány k zvýraznění obrazu, nalezení obrysů, k obnovení obrazu a k odfiltrování detailů. Srovnávání se vzorem je způsob izolování určitých vlastností v obraze. Je to obdobný způsob jako filtrování, ale má jiný výsledek. Srovnávání části obrazu se vzorem (např. okno 3x3) dává výsledné vysoké hodnoty tam, kde obraz a vzor sobě navzájem odpovídají, a nízkou hodnotu tam, kde jsou rozdílné. Proto se srovnávání používá jako kritérium shodnosti. Využití např. ve vojenství k rozlišování tvaru letadel, k identifikaci osob. 6.2 Komprese dat Komprese se provádí tak, že síť učíme na identitu, tedy má stejný vstup a výstup. Vnitřní vrstva musí mít méně neuronů než vstupní a výstupní. Pak je síť nucená vícerozměrný vstup transformovat do méně rozměrného prostoru reprezentovaného vnitřní vrstvou. Síť se pak rozstřihne ve střední vrstvě a její přední část se používá pro kompresi a zadní část pro dekompresi. 6.3 Předvídání dat K předvídání dat je zapotřebí dlouhodobých záznamů, ze kterých se vybírá určitý úsek a hledá se závislost následujícího výstupu na tomto předcházejícím úseku dat. Př.: Předpověď teploty na základě dlouhodobé statistiky a např. týdenního průběhu teplot. Př.: Předzásobení benzinových pump, na základě dlouhodobých zkušeností, podle místa, ročního období, svátků, datumu, počasí, atd. (učení této sítě trvalo přibližně půl roku). 6.4 Určení stavu Perceptronová síť s back propagation se využívá pro zjišťování srdeční arytmie. K učení byly použito EKG a vyjádření skupiny odborníků. Po natrénování síť vyhodnocuje arytmii lépe než 90% lékařů. literatura [1] ST 8/96 (nevybráno vše) [2] PC World 4/97 [3] soft. Noviny 6/98 [4] Novák: Umělé neuronové sítě [5] Diplomové práce MU a UP

Rosenblattův perceptron

Rosenblattův perceptron Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného

Více

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013 Ambasadoři přírodovědných a technických oborů Ing. Michal Řepka Březen - duben 2013 Umělé neuronové sítě Proč právě Neuronové sítě? K čemu je to dobré? Používá se to někde v praxi? Úvod Umělé neuronové

Více

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015 Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační

Více

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44 Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný

Více

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení. Základní pojmy z oblasti neuronových sítí Zde je uveden přehled některých základních pojmů z oblasti neuronových sítí. Tento přehled usnadní studium a pochopení předmětu. ADALINE - klasická umělá neuronová

Více

Neuronové sítě Ladislav Horký Karel Břinda

Neuronové sítě Ladislav Horký Karel Břinda Neuronové sítě Ladislav Horký Karel Břinda Obsah Úvod, historie Modely neuronu, aktivační funkce Topologie sítí Principy učení Konkrétní typy sítí s ukázkami v prostředí Wolfram Mathematica Praktické aplikace

Více

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních

Více

Neuronové časové řady (ANN-TS)

Neuronové časové řady (ANN-TS) Neuronové časové řady (ANN-TS) Menu: QCExpert Prediktivní metody Neuronové časové řady Tento modul (Artificial Neural Network Time Series ANN-TS) využívá modelovacího potenciálu neuronové sítě k predikci

Více

Principy počítačů I Netradiční stroje

Principy počítačů I Netradiční stroje Principy počítačů I Netradiční stroje snímek 1 Principy počítačů Část X Netradiční stroje VJJ 1 snímek 2 Netradiční procesory architektury a organizace počítačů, které se vymykají struktuře popsané Johnem

Více

Úloha - rozpoznávání číslic

Úloha - rozpoznávání číslic Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání

Více

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky Neuronové sítě Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky Motivace pro výzkum umělých neuronových sítí lidský mozek pracuje jiným způsobem než běžné číslicové počítače počítače přesně

Více

U Úvod do modelování a simulace systémů

U Úvod do modelování a simulace systémů U Úvod do modelování a simulace systémů Vyšetřování rozsáhlých soustav mnohdy nelze provádět analytickým výpočtem.často je nutné zkoumat chování zařízení v mezních situacích, do kterých se skutečné zařízení

Více

2. RBF neuronové sítě

2. RBF neuronové sítě 2. RBF neuronové sítě Kapitola pojednává o neuronových sítích typu RBF. V kapitole je popsána základní struktura tohoto typu neuronové sítě. Poté následuje definice a charakteristika jednotlivých radiálně

Více

Automatizace je proces při němž je řídicí funkce člověka nahrazována činností

Automatizace je proces při němž je řídicí funkce člověka nahrazována činností Automatizace je proces při němž je řídicí funkce člověka nahrazována činností různých přístrojů a zařízení. (Mechanizace, Automatizace, Komplexní automatizace) Kybernetika je Věda, která zkoumá obecné

Více

Neuropočítače. podnět. vnímání (senzory)

Neuropočítače. podnět. vnímání (senzory) Neuropočítače Princip inteligentního systému vnímání (senzory) podnět akce (efektory) poznání plánování usuzování komunikace Typické vlastnosti inteligentního systému: schopnost vnímat podněty z okolního

Více

Aplikovaná numerická matematika

Aplikovaná numerická matematika Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních

Více

SIGNÁLY A LINEÁRNÍ SYSTÉMY

SIGNÁLY A LINEÁRNÍ SYSTÉMY SIGNÁLY A LINEÁRNÍ SYSTÉMY prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz VII. SYSTÉMY ZÁKLADNÍ POJMY SYSTÉM - DEFINICE SYSTÉM (řec.) složené, seskupené (v

Více

13 Barvy a úpravy rastrového

13 Barvy a úpravy rastrového 13 Barvy a úpravy rastrového Studijní cíl Tento blok je věnován základním metodám pro úpravu rastrového obrazu, jako je např. otočení, horizontální a vertikální překlopení. Dále budo vysvětleny různé metody

Více

Teorie systémů TES 1. Úvod

Teorie systémů TES 1. Úvod Evropský sociální fond. Praha & EU: Investujeme do vaší budoucnosti. Teorie systémů TES 1. Úvod ZS 2011/2012 prof. Ing. Petr Moos, CSc. Ústav informatiky a telekomunikací Fakulta dopravní ČVUT v Praze

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou

Více

Dijkstrův algoritmus

Dijkstrův algoritmus Dijkstrův algoritmus Hledání nejkratší cesty v nezáporně hranově ohodnoceném grafu Necht je dán orientovaný graf G = (V, H) a funkce, která každé hraně h = (u, v) H přiřadí nezáporné reálné číslo označované

Více

Klasifikace předmětů a jevů

Klasifikace předmětů a jevů Klasifikace předmětů a jevů 1. Úvod Rozpoznávání neboli klasifikace je základní znak lidské činnosti. Rozpoznávání (klasifikace) předmětů a jevů spočívá v jejich zařazování do jednotlivých tříd. Třídou

Více

ELT1 - Přednáška č. 6

ELT1 - Přednáška č. 6 ELT1 - Přednáška č. 6 Elektrotechnická terminologie a odborné výrazy, měřicí jednotky a činitelé, které je ovlivňují. Rozdíl potenciálů, elektromotorická síla, napětí, el. napětí, proud, odpor, vodivost,

Více

7. Rozdělení pravděpodobnosti ve statistice

7. Rozdělení pravděpodobnosti ve statistice 7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,

Více

jednoduchá heuristika asymetrické okolí stavový prostor, kde nelze zabloudit připustit zhoršují cí tahy Pokročilé heuristiky

jednoduchá heuristika asymetrické okolí stavový prostor, kde nelze zabloudit připustit zhoršují cí tahy Pokročilé heuristiky Pokročilé heuristiky jednoduchá heuristika asymetrické stavový prostor, kde nelze zabloudit připustit zhoršují cí tahy pokročilá heuristika symetrické stavový prostor, který vyžaduje řízení 1 2 Paměť pouze

Více

Rozdělování dat do trénovacích a testovacích množin

Rozdělování dat do trénovacích a testovacích množin Rozdělování dat do trénovacích a testovacích množin Marcel Jiřina Rozpoznávání je důležitou metodou při zpracování reálných úloh. Rozpoznávání je definováno dvěma kroky a to pořízením dat o reálném rozpoznávaném

Více

Fuzzy regulátory Mamdaniho a Takagi-Sugenova typu. Návrh fuzzy regulátorů: F-I-A-D v regulátorech Mamdaniho typu. Fuzzifikace. Inference. Viz. obr.

Fuzzy regulátory Mamdaniho a Takagi-Sugenova typu. Návrh fuzzy regulátorů: F-I-A-D v regulátorech Mamdaniho typu. Fuzzifikace. Inference. Viz. obr. Fuzzy regulátory Mamdaniho a Takagi-Sugenova typu Návrh fuzzy regulátorů: Fuzzifikace, (fuzzyfikace), (F) Inference, (I), Agregace, (A), Defuzzifikace (defuzzyfikace) (D). F-I-A-D v regulátorech Mamdaniho

Více

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Dálkový průzkum Země Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Klasifikace založené na strojovém učení Strojové učení je podoblastí umělé inteligence, zabývající se algoritmy

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

1 Modelování systémů 2. řádu

1 Modelování systémů 2. řádu OBSAH Obsah 1 Modelování systémů 2. řádu 1 2 Řešení diferenciální rovnice 3 3 Ukázka řešení č. 1 9 4 Ukázka řešení č. 2 11 5 Ukázka řešení č. 3 12 6 Ukázka řešení č. 4 14 7 Ukázka řešení č. 5 16 8 Ukázka

Více

11. Tabu prohledávání

11. Tabu prohledávání Jan Schmidt 2011 Katedra číslicového návrhu Fakulta informačních technologií České vysoké učení technické v Praze Zimní semestr 2011/12 MI-PAA EVROPSKÝ SOCIÁLNÍ FOND PRAHA & EU: INVESTUJENE DO VAŠÍ BUDOUCNOSTI

Více

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 DOLOVÁNÍ V DATECH (DATA MINING) OBJEVUJE SE JIŽ OD 60. LET 20. ST. S ROZVOJEM POČÍTAČOVÉ TECHNIKY DEFINICE PROCES VÝBĚRU, PROHLEDÁVÁNÍ A MODELOVÁNÍ

Více

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti. Přednáška č. 1 Úvod do statistiky a počtu pravděpodobnosti Statistika Statistika je věda a postup jak rozvíjet lidské znalosti použitím empirických dat. Je založena na matematické statistice, která je

Více

5 Orientované grafy, Toky v sítích

5 Orientované grafy, Toky v sítích Petr Hliněný, FI MU Brno, 205 / 9 FI: IB000: Toky v sítích 5 Orientované grafy, Toky v sítích Nyní se budeme zabývat typem sít ových úloh, ve kterých není podstatná délka hran a spojení, nýbž jejich propustnost

Více

Pokročilé operace s obrazem

Pokročilé operace s obrazem Získávání a analýza obrazové informace Pokročilé operace s obrazem Biofyzikální ústav Lékařské fakulty Masarykovy univerzity Brno prezentace je součástí projektu FRVŠ č.2487/2011 (BFÚ LF MU) Získávání

Více

VY_32_INOVACE_E 15 03

VY_32_INOVACE_E 15 03 Název a adresa školy: Střední škola průmyslová a umělecká, Opava, příspěvková organizace, Praskova 399/8, Opava, 746 01 Název operačního programu: OP Vzdělávání pro konkurenceschopnost, oblast podpory

Více

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC .6. VLASTNÍ ČÍSLA A VEKTORY MATIC V této kapitole se dozvíte: jak jsou definována vlastní (charakteristická) čísla a vektory čtvercové matice; co je to charakteristická matice a charakteristický polynom

Více

Modelování a simulace Lukáš Otte

Modelování a simulace Lukáš Otte Modelování a simulace 2013 Lukáš Otte Význam, účel a výhody MaS Simulační modely jsou nezbytné pro: oblast vědy a výzkumu (základní i aplikovaný výzkum) analýzy složitých dyn. systémů a tech. procesů oblast

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

5. Lokální, vázané a globální extrémy

5. Lokální, vázané a globální extrémy 5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,

Více

StatSoft Úvod do neuronových sítí

StatSoft Úvod do neuronových sítí StatSoft Úvod do neuronových sítí Vzhledem k vzrůstající popularitě neuronových sítí jsme se rozhodli Vám je v tomto článku představit a říci si něco o jejich využití. Co si tedy představit pod pojmem

Více

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

Kontingenční tabulky v MS Excel 2010

Kontingenční tabulky v MS Excel 2010 Kontingenční tabulky v MS Excel 2010 Autor: RNDr. Milan Myšák e-mail: milan.mysak@konero.cz Obsah 1 Vytvoření KT... 3 1.1 Data pro KT... 3 1.2 Tvorba KT... 3 2 Tvorba KT z dalších zdrojů dat... 5 2.1 Data

Více

IB112 Základy matematiky

IB112 Základy matematiky IB112 Základy matematiky Řešení soustavy lineárních rovnic, matice, vektory Jan Strejček IB112 Základy matematiky: Řešení soustavy lineárních rovnic, matice, vektory 2/53 Obsah Soustava lineárních rovnic

Více

GIS Geografické informační systémy

GIS Geografické informační systémy GIS Geografické informační systémy Obsah přednášky Prostorové vektorové modely Špagetový model Topologický model Převody geometrií Vektorový model Reprezentuje reálný svět po jednotlivých složkách popisu

Více

Neuronové sítě (11. přednáška)

Neuronové sítě (11. přednáška) Neuronové sítě (11. přednáška) Machine Learning Naučit stroje se učit O co jde? Máme model výpočtu (t.j. výpočetní postup jednoznačně daný vstupy a nějakými parametry), chceme najít vhodné nastavení parametrů,

Více

Úvodem Dříve les než stromy 3 Operace s maticemi

Úvodem Dříve les než stromy 3 Operace s maticemi Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová

Více

Spojité regulátory Zhotoveno ve školním roce: 2011/2012. Spojité regulátory. Jednoduché regulátory

Spojité regulátory Zhotoveno ve školním roce: 2011/2012. Spojité regulátory. Jednoduché regulátory Název a adresa školy: Střední škola průmyslová a umělecká, Opava, příspěvková organizace, Praskova 399/8, Opava, 746 01 Název operačního programu: OP Vzdělávání pro konkurenceschopnost, oblast podpory

Více

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu Neuronové sítě L. Horký*, K. Břinda** Fakulta jaderná a fyzikálně inženýrská, Břehová 7, 115 19 Praha 1 *horkyladislav@seznam.cz, **brinda@fjfi.cvut.cz Abstrakt Cílem našeho příspěvku je získat uživatelský

Více

Všeobecná rovnováha 1 Statistický pohled

Všeobecná rovnováha 1 Statistický pohled Makroekonomická analýza přednáška 4 1 Všeobecná rovnováha 1 Statistický pohled Předpoklady Úspory (resp.spotřeba) a investice (resp.kapitál), kterými jsme se zabývali v minulých lekcích, jsou spolu s technologickým

Více

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky Neuronové sítě AIL002 Iveta Mrázová 1 František Mráz 2 1 Katedra softwarového inženýrství 2 Kabinet software a výuky informatiky Do LATEXu přepsal: Tomáš Caithaml Učení s učitelem Rozpoznávání Použití:

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u

Více

Operace s obrazem II

Operace s obrazem II Operace s obrazem II Biofyzikální ústav Lékařské fakulty Masarykovy univerzity Brno prezentace je součástí projektu FRVŠ č.2487/2011 Osnova Matematická morfologie Segmentace obrazu Klasifikace objektů

Více

Zpracování neurčitosti

Zpracování neurčitosti Zpracování neurčitosti Úvod do znalostního inženýrství, ZS 2015/16 7-1 Usuzování za neurčitosti Neurčitost: Při vytváření ZS obvykle nejsou všechny informace naprosto korektní mohou být víceznačné, vágní,

Více

Odhad stavu matematického modelu křižovatek

Odhad stavu matematického modelu křižovatek Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita

Více

Omezení barevného prostoru

Omezení barevného prostoru Úpravy obrazu Omezení barevného prostoru Omezení počtu barev v obraze při zachování obrazového vjemu z obrazu Vytváření barevné palety v některých souborových formátech Různé filtry v grafických programech

Více

Strojové učení se zaměřením na vliv vstupních dat

Strojové učení se zaměřením na vliv vstupních dat Strojové učení se zaměřením na vliv vstupních dat Irina Perfilieva, Petr Hurtík, Marek Vajgl Centre of excellence IT4Innovations Division of the University of Ostrava Institute for Research and Applications

Více

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení 2 Zpracování naměřených dat Důležitou součástí každé experimentální práce je statistické zpracování naměřených dat. V této krátké kapitole se budeme věnovat určení intervalů spolehlivosti získaných výsledků

Více

Grafika na počítači. Bc. Veronika Tomsová

Grafika na počítači. Bc. Veronika Tomsová Grafika na počítači Bc. Veronika Tomsová Proces zpracování obrazu Proces zpracování obrazu 1. Snímání obrazu 2. Digitalizace obrazu převod spojitého signálu na matici čísel reprezentující obraz 3. Předzpracování

Více

2. úkol MI-PAA. Jan Jůna (junajan) 3.11.2013

2. úkol MI-PAA. Jan Jůna (junajan) 3.11.2013 2. úkol MI-PAA Jan Jůna (junajan) 3.11.2013 Specifikaci úlohy Problém batohu je jedním z nejjednodušších NP-těžkých problémů. V literatuře najdeme množství jeho variant, které mají obecně různé nároky

Více

Rozpoznávání izolovaných slov (malý slovník, např. číslovky, povely).

Rozpoznávání izolovaných slov (malý slovník, např. číslovky, povely). Rozpoznávání řeči Každý člověk má originální hlasové ústrojí a odlišný způsob artikulace, to se projevuje rozdílnou barvou hlasu, přízvukem, rychlostí řeči atd. I hlas jednoho řečníka je variabilní a závislý

Více

Algoritmus pro hledání nejkratší cesty orientovaným grafem

Algoritmus pro hledání nejkratší cesty orientovaným grafem 1.1 Úvod Algoritmus pro hledání nejkratší cesty orientovaným grafem Naprogramoval jsem v Matlabu funkci, která dokáže určit nejkratší cestu v orientovaném grafu mezi libovolnými dvěma vrcholy. Nastudoval

Více

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY

Více

Soustavy se spínanými kapacitory - SC. 1. Základní princip:

Soustavy se spínanými kapacitory - SC. 1. Základní princip: Obvody S - popis 1 Soustavy se spínanými kapacitory - S 1. Základní princip: Simulace rezistoru přepínaným kapacitorem viz známý obrázek! (a rovnice) Modifikace základního spínaného obvodu: Obr. 2.1: Zapojení

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota závisí nějakým způsobem na vstupní, je její funkcí = f(x). Pokud

Více

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky

Více

1 Báze a dimenze vektorového prostoru 1

1 Báze a dimenze vektorového prostoru 1 1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější

Více

ZÁKLADY AUTOMATICKÉHO ŘÍZENÍ

ZÁKLADY AUTOMATICKÉHO ŘÍZENÍ VYSOKÁ ŠKOLA BÁŇSKÁ TECHNICKÁ UNIVERZITA OSTRAVA FAKULTA STROJNÍ ZÁKLADY AUTOMATICKÉHO ŘÍZENÍ 8. týden doc. Ing. Renata WAGNEROVÁ, Ph.D. Ostrava 2013 doc. Ing. Renata WAGNEROVÁ, Ph.D. Vysoká škola báňská

Více

Princip funkce počítače

Princip funkce počítače Princip funkce počítače Princip funkce počítače prvotní úlohou počítačů bylo zrychlit provádění matematických výpočtů první počítače kopírovaly obvyklý postup manuálního provádění výpočtů pokyny pro zpracování

Více

1. Přednáška. Ing. Miroslav Šulai, MBA

1. Přednáška. Ing. Miroslav Šulai, MBA N_OFI_2 1. Přednáška Počet pravděpodobnosti Statistický aparát používaný ve financích Ing. Miroslav Šulai, MBA 1 Počet pravděpodobnosti -náhodné veličiny 2 Počet pravděpodobnosti -náhodné veličiny 3 Jevy

Více

Architektury počítačů a procesorů

Architektury počítačů a procesorů Kapitola 3 Architektury počítačů a procesorů 3.1 Von Neumannova (a harvardská) architektura Von Neumann 1. počítač se skládá z funkčních jednotek - paměť, řadič, aritmetická jednotka, vstupní a výstupní

Více

Lineární diskriminační funkce. Perceptronový algoritmus.

Lineární diskriminační funkce. Perceptronový algoritmus. Lineární. Perceptronový algoritmus. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics P. Pošík c 2012 Artificial Intelligence 1 / 12 Binární klasifikace

Více

Signál v čase a jeho spektrum

Signál v čase a jeho spektrum Signál v čase a jeho spektrum Signály v časovém průběhu (tak jak je vidíme na osciloskopu) můžeme dělit na periodické a neperiodické. V obou případech je lze popsat spektrálně určit jaké kmitočty v sobě

Více

PV021 Vícevrstvá neuronová síť pro rozeznávání mikroteček. Matúš Goljer, Maroš Kucbel, Michal Novotný, Karel Štěpka 2011

PV021 Vícevrstvá neuronová síť pro rozeznávání mikroteček. Matúš Goljer, Maroš Kucbel, Michal Novotný, Karel Štěpka 2011 PV021 Vícevrstvá neuronová síť pro rozeznávání mikroteček Matúš Goljer, Maroš Kucbel, Michal Novotný, Karel Štěpka 2011 Úkol sítě Rozeznávat obrázky obsahující fluorescenční mikrotečky od obrázků s nespecifickým

Více

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET Obsah 1. Soutěživé sítě... 2 1.1 Základní informace... 2 1.2 Výstupy z učení... 2 1.3 Jednoduchá soutěživá síť MAXNET... 2 1.3.1 Organizační dynamika... 2 1.3.2 Adaptační dynamika... 4 1.3.3 Aktivní dynamika...

Více

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005 Rozpoznávání písmen Jiří Šejnoha Rudolf Kadlec (c) 2005 Osnova Motivace Popis problému Povaha dat Neuronová síť Architektura Výsledky Zhodnocení a závěr Popis problému Jedná se o praktický problém, kdy

Více

1. 5. Minimalizace logické funkce a implementace do cílového programovatelného obvodu CPLD

1. 5. Minimalizace logické funkce a implementace do cílového programovatelného obvodu CPLD .. Minimalizace logické funkce a implementace do cílového programovatelného obvodu Zadání. Navrhněte obvod realizující neminimalizovanou funkci (úplný term) pomocí hradel AND, OR a invertorů. Zaznamenejte

Více

Gymnázium Vysoké Mýto nám. Vaňorného 163, 566 01 Vysoké Mýto

Gymnázium Vysoké Mýto nám. Vaňorného 163, 566 01 Vysoké Mýto Gymnázium Vysoké Mýto nám. Vaňorného 163, 566 01 Vysoké Mýto Registrační číslo projektu Šablona Autor Název materiálu CZ.1.07/1.5.00/34.0951 III/2 INOVACE A ZKVALITNĚNÍ VÝUKY PROSTŘEDNICTVÍM ICT Mgr. Jana

Více

OPS Paralelní systémy, seznam pojmů, klasifikace

OPS Paralelní systémy, seznam pojmů, klasifikace Moorův zákon (polovina 60. let) : Výpočetní výkon a počet tranzistorů na jeden CPU chip integrovaného obvodu mikroprocesoru se každý jeden až dva roky zdvojnásobí; cena se zmenší na polovinu. Paralelismus

Více

Digitální učební materiál

Digitální učební materiál Digitální učební materiál Číslo projektu: CZ.1.07/1.5.00/34.0548 Název školy: Gymnázium, Trutnov, Jiráskovo náměstí 325 Název materiálu: VY_32_INOVACE_143_IVT Autor: Ing. Pavel Bezděk Tematický okruh:

Více

3. Úloha o společném rozhraní

3. Úloha o společném rozhraní 34 3. Úloha o společném rozhraní Cíle Po prostudování této kapitoly budete schopni: Zjistit neregularity v systému Navrhnout řešení pro odstranění neregulárních vazeb Doba potřebná ke studiukapitoly:60minut

Více

4. Statika základní pojmy a základy rovnováhy sil

4. Statika základní pojmy a základy rovnováhy sil 4. Statika základní pojmy a základy rovnováhy sil Síla je veličina vektorová. Je určena působištěm, směrem, smyslem a velikostí. Působiště síly je bod, ve kterém se přenáší účinek síly na těleso. Směr

Více

MULTIMEDIÁLNÍ A HYPERMEDIÁLNÍ SYSTÉMY

MULTIMEDIÁLNÍ A HYPERMEDIÁLNÍ SYSTÉMY MULTIMEDIÁLNÍ A HYPERMEDIÁLNÍ SYSTÉMY 1) Úvod do problematiky Petr Lobaz, 18. 2. 2004 ORGANIZACE PŘ EDMĚ TU POŽADAVKY KE ZKOUŠCE vypracování semestrální práce (max. 70 bodů) napsání testu (max. 30 bodů)

Více

Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a přiřazení datových modelů

Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a přiřazení datových modelů Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a datových modelů Obsah Seznam tabulek... 1 Seznam obrázků... 1 1 Úvod... 2 2 Metody sémantické harmonizace... 2 3 Dvojjazyčné katalogy objektů

Více

Algoritmus. Přesné znění definice algoritmu zní: Algoritmus je procedura proveditelná Turingovým strojem.

Algoritmus. Přesné znění definice algoritmu zní: Algoritmus je procedura proveditelná Turingovým strojem. Algoritmus Algoritmus je schematický postup pro řešení určitého druhu problémů, který je prováděn pomocí konečného množství přesně definovaných kroků. nebo Algoritmus lze definovat jako jednoznačně určenou

Více

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1 Logistická regrese Menu: QCExpert Regrese Logistická Modul Logistická regrese umožňuje analýzu dat, kdy odezva je binární, nebo frekvenční veličina vyjádřená hodnotami 0 nebo 1, případně poměry v intervalu

Více

VYSOKÁ ŠKOLA BÁŇSKÁ TECHNICKÁ UNIVERZITA OSTRAVA FAKULTA STROJNÍ DATABÁZOVÉ SYSTÉMY ARCHITEKTURA DATABÁZOVÝCH SYSTÉMŮ. Ing. Lukáš OTTE, Ph.D.

VYSOKÁ ŠKOLA BÁŇSKÁ TECHNICKÁ UNIVERZITA OSTRAVA FAKULTA STROJNÍ DATABÁZOVÉ SYSTÉMY ARCHITEKTURA DATABÁZOVÝCH SYSTÉMŮ. Ing. Lukáš OTTE, Ph.D. VYSOKÁ ŠKOLA BÁŇSKÁ TECHNICKÁ UNIVERZITA OSTRAVA FAKULTA STROJNÍ DATABÁZOVÉ SYSTÉMY ARCHITEKTURA DATABÁZOVÝCH SYSTÉMŮ Ing. Lukáš OTTE, Ph.D. Ostrava 2013 Tento studijní materiál vznikl za finanční podpory

Více

1 Linearní prostory nad komplexními čísly

1 Linearní prostory nad komplexními čísly 1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)

Více

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Samoučící se neuronová síť - SOM, Kohonenovy mapy Samoučící se neuronová síť - SOM, Kohonenovy mapy Antonín Vojáček, 14 Květen, 2006-10:33 Měření a regulace Samoorganizující neuronové sítě s učením bez učitele jsou stále více využívány pro rozlišení,

Více

Klíčové pojmy: Informační mohutnost, mozek, myšlení, nepřesné algoritmy, neuron, neuronová síť, simulace, umělá neuronová síť.

Klíčové pojmy: Informační mohutnost, mozek, myšlení, nepřesné algoritmy, neuron, neuronová síť, simulace, umělá neuronová síť. Neuronové sítě 1 Cíl kapitoly : Seznámení s podněty a logikou výstavby neuronových sítí, jejich hlavními úkoly a způsoby práce. Umět aplikovat tato poznatky a umožnit další a hlubší studium neuronových

Více

BINÁRNÍ NEBO BI-VALENTNÍ LOGIKA

BINÁRNÍ NEBO BI-VALENTNÍ LOGIKA FUZZY LOGIC BINÁRNÍ LOGIKA BINÁRNÍ NEBO BI-VALENTNÍ LOGIKA V BINÁRNÍ LOGICE MOHOU NASTAT DVĚ PODMÍNKY, NAPŘÍKLAD: PRAVDIVÝ BÍLÁ JEDNIČKA PLNÝ VYSOKÝ TENKÝ NEPRAVDIVÝ ČERNÁ NULA PRÁZDNÝ NÍZKÝ TLUSTÝ POKUD

Více

4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY

4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY 4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY Průvodce studiem V této kapitole se seznámíte se základními typy rozložení diskrétní náhodné veličiny. Vašim úkolem by neměla být

Více

časovém horizontu na rozdíl od experimentu lépe odhalit chybné poznání reality.

časovém horizontu na rozdíl od experimentu lépe odhalit chybné poznání reality. Modelování dynamických systémů Matematické modelování dynamických systémů se využívá v různých oborech přírodních, technických, ekonomických a sociálních věd. Použití matematického modelu umožňuje popsat

Více

I. D i s k r é t n í r o z d ě l e n í

I. D i s k r é t n í r o z d ě l e n í 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Lineární a adaptivní zpracování dat. 2. SYSTÉMY a jejich popis v časové doméně a frekvenční doméně

Lineární a adaptivní zpracování dat. 2. SYSTÉMY a jejich popis v časové doméně a frekvenční doméně Lineární a adaptivní zpracování dat 2. SYSTÉMY a jejich popis v časové doméně a frekvenční doméně Daniel Schwarz Investice do rozvoje vzdělávání Osnova Opakování: signály a systémy Vlastnosti systémů Systémy

Více

veličin, deskriptivní statistika Ing. Michael Rost, Ph.D.

veličin, deskriptivní statistika Ing. Michael Rost, Ph.D. Vybraná rozdělení spojitých náhodných veličin, deskriptivní statistika Ing. Michael Rost, Ph.D. Třídění Základním zpracováním dat je jejich třídění. Jde o uspořádání získaných dat, kde volba třídícího

Více

TÉMATICKÝ OKRUH Teorie zpracování dat, Databázové a informační systémy a Teorie informačních systémů

TÉMATICKÝ OKRUH Teorie zpracování dat, Databázové a informační systémy a Teorie informačních systémů TÉMATICKÝ OKRUH Teorie zpracování dat, Databázové a informační systémy a Teorie informačních systémů Číslo otázky : 16. Otázka : Funkční a dynamická analýza informačního systému. Obsah : 1. Úvod 2. Funkční

Více