přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Rozměr: px
Začít zobrazení ze stránky:

Download "přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat"

Transkript

1 Zkouška ISR 2013 přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat 1. Rozdílné principy u induktivního a deduktivního učení? induktivní (vzor -> obecné závěry) trenovani pomoci prikladu, možnost objevovat znalost na základě zobecnění omezeného množství vzorů deduktivní (obecné -> konkrétní fakta) vyvozování konkrétních poznatků z obecných principů, premis a závěrů (opak induktivního učení) 2. Jak mohou umělé neurony aproximovat nelineární funkce? Pro modelování nelineárních funkcí se perceptron s linearni prenosouvou funkci nehodí, ten lze použít pro nalezení hranice mezi lineárně oddělitelnými třídami, jinak však pracuje s (velkou) chybou. Mají li perceptrony aproximovat neznámou nelineární funkci, musí být jejich přenosová funkce také nelineární, protože (i síťová) kombinace lineárních funkcí může vytvořit zase jenom funkci lineární. 3. Co je to entropie (vzorec)? H (X) = n p n log2 p n suma součinů psti jevu a logaritmu teto psti o základu 2, vynasobena 1 (logaritmy z hodnot pravděpodobností jsou záporné) 4. Co je to entropie a její vztah k rozhodovacím stromům? veličina udávající "míru neurčitosti" zkoumaného systému Při konstrukci rozhodovacího stromu se hledají testy v uzlech tak, aby odpověď na test poskytla co nevíce informace (maximalizace informačního zisku), tj. aby byla co nejmenší entropie. Počáteční heterogenní množina trénovacích instancí je na základě odpovědí na test rozdělena na homogennější podmnožiny, snižuje se neuspořádanost ( chaos ). Je nutno vyzkoušet všechny uvažované atributy, tj. zjistit, jakou poskytují entropii, a pak vybrat atribut s nejnižší entropií. Vznikne nová úroveň stromu (kořenem je počáteční množina trénovacích instancí), kterou lze rekursivně dále testovat. Konec generování stromu je dán nemožností dosažení nižší entropie (listy). 5. Jaké jsou kroky u RBF? Trénování probíhá obdobně, cílem je najít hodnoty vah:

2 v prvním kroku je nutné stanovit počet zvonů a jejich umístění (pozice středů křivek, m). druhý krok opakovanými průchody trénovací množinou snižuje klasifikační chybu iterativní úpravou hodnot vah. pomocí RBF lze aproximovat každou funkci s libovolně malou chybou, a to za předpokladu, že je k dispozici dostatečně velký počet RBF (zvonů) a že pro každý zvon lze individuálně stanovit s (rozptyl kolem m) 1. Architektura skryté vrstvy: počet k zvonů a jejich tvar (šíře) se obvykle určí pomocí zvolené shlukovací metody, velmi často se používá algoritmus k means (k středů pro dané k, což je požadovaný počet zvonů). Lze použít i shlukovacích metod jako EM (expectation minimization), které najdou i vhodné k. Zvony by neměly být příliš úzké (velmi specifické), ani příliš široké (velmi obecné) z hlediska pokrývané množiny hodnot. Také by se neměly příliš překrývat. Lze je i definovat přímo. 2. Minimalizace chyby výstupu sítě (rozdílu mezi hodnotami aproximační funkce a neznámé skutečné) se provádí gradientním sestupem na základě rozdílu mezi hodnotou známou (z trénovacích dat) a hodnotou poskytovanou sítí v jednotlivých krocích tréninku. Aktualizace vah probíhá stejně, jako u zmiňované metody backpropagation. 6. Co je to RBF? Kde se používá a jeho vlastnosti RBF (Radial Basis Function) Radiální bázové funkce, použité k přenosu signálu, jsou podstatou určité skupiny hojně používanch sítí. Základem je radiální funkce, obvykle zvonovitá křivka ( Gaussova, která však nemá nic společného s křivkou normálního rozdělení, kromě obecného tvaru!). Radiální je proto, že poskytuje ze svého středu pohled dokola, přičemž s narůstající vzdáleností vidí stále slaběji, krátkozraká funkce. Tato vlastnost ji předurčuje k silně lokální působnosti vzdálenější vstupní hodnoty poskytují menší hodnoty výstupní, a to např. na rozdíl od sigmoidy, která monotónně narůstá od do +, jejíž nevýhodou je její nasycení od určité hodnoty vstupu, což však oproti radiální funkci zase umožňuje lepší případnou extrapolaci. 7. jaké jsou funkční rozdíly mezi neurony s S křivkou a RBF? RBF i BP sítě mají velké množství úspěšných aplikací v oblasti aproximace neznámých nelineárních funkcí a klasifikace. Ve srovnání s BP dosahují RBF na velmi obtížných problémech zcela srovnatelných výsledků, avšak trénovací čas je o mnoho řádů nižší. RBF však vyžadují typicky až desetinásobek potřebných dat pro trénování k dosažení téže přesnosti jako BP. Je li dost dat a RBF jednotek v síti, pak RBF obvykle dosahují lepších klasifikačních výsledků.

3 Kratší doba tréninku je u RBF dána tím, že na konkrétní vstupní vektor x reaguje obvykle jen malá část jednotek ve skryté vrstvě. Topologie RBF je hybridní v tom smyslu, že výstupní vrstva je složena z klasických neuronů, zatímco skrytá vrstva z jednotek RBF, takže odpadá pomalé zpětné šíření chyb od výstupní vrstvy ke skryté. Pro aproximaci funkcí vyžaduje RBF síť mnoho trénovacích příkladů. U BP sítí probíhá aproximace v globálním smyslu, zatímco u RBF sítí v lokálním, což vede u BP sítí k lepší generalizaci. BP sítě potřebují nižší počet neuronů ve skryté vrstvě, protože využívají své stupně volnosti efektivněji. Pro extrapolaci jsou vhodnější BP sítě kvůli rozdílu v průběhu sigmoidy ( S křivky) a zvonovité křivky. Z téhož důvodu však RBF sítě obvykle fungují lépe jako klasifikátory. RBF sítě se obecně hodí lépe pro on line trénování. 8. Co je to metrika a jaké jsou její 4 obecné vlastnosti? metric trees (metrické stromy). Metrika [vzdálenost D (a,b) mezi bodem a a b] má obecně tyto čtyři vlastnosti: D (a,b) 0 (vzdálenost je vždy kladná), D (a,b) = 0 jedině tehdy, když a = b (reflexivita), D (a,b) = D (b,a) (symetrie) D (a,b) + D (b,c) D (a,c) (trojúhelníková nerovnost). Lze snadno dokázat, že např. Eukleidova i Manhattanská vzdálenost je metrika v m rozměrném prostoru. Metrické stromy o Metric trees, balls trees o Platí vlastnosti jako reflexivita, symetrie, vzdálenost je vždy kladná, trojúhelníková nerovnost, Uzly neobsahují ve skutečnosti počty náležejících bodů, ale středy a poloměry příslušných hyperkruhů. Platí to i pro listy stromu. Počítají se vzdálenosti mezi středy kruhů a neznámým vzorkem, berou se do úvahy kruhy stejné na stejné úrovni ve stromu. Pokud je poloměr v uzlu menší jak vzdálenostmezi středem a klasifikovaným 9. Vysvětit princip KNN (k-nejbližších sousedů) Tréninkové příklady jsou uloženy do databáze. Každý příklad je popsán atributy, jejichž hodnoty jsou považovány za souřadnice v prostoru, v němž tedy určují polohu příkladu jako vícerozměrného bodu (resp. vektoru). Příklady mají své zařazení do tříd známé. Objeví li se případ, jehož příslušnost do některé ze tříd není známá, hledá se jeho nejbližší, nejpodobnější soused (nebo k sousedů), a neznámý případ se zařadí

4 do stejné třídy. Pokud je k >1, tj. neznámý případ se porovnává s více než jedním sousedem, pak rozhoduje o zařazení do příslušné třídy většina. Blízkost je zde ekvivalentní podobnosti, takže se vlastně hledá k nejpodobnějších případů. Kolik sousedů se má použít, to nelze předem říci, optimální počet se hledá experimentálně. Je li počet sousedů velký, pak jsou asi příklady značně ovlivněny šumem. k NN je algoritmus citlivý na šum, irelevantní atributy a výjimky. 10. Jak se chová neuronová síť, když jsou funkce nelineární? 13. Co je Post a Pre prořezávání? Kde? A k čemu to je? Znalost je zobecněná informace, a strom je jednou z možných reprezentací znalosti. Proto by měl být dostatečně obecný. Ukazuje se, že k lepším výsledkům na testovacích datech přispívá tzv. prořezávání po celkovém vytvoření stromu. Strom se nenechá tak rozkošatět. Obsahují li tréninkové příklady šum, pak jednoprvkové množiny v listech mohou vést k chybné klasifikaci řízené spíše šumem než zobecněním souboru hodnot relevantních atributů. U stromů lze zabránit takovému přetrénování prořezáváním. Shora dolů (pre pruning) Pre pruning zastaví růst větve, když začne poskytovat nespolehlivou informaci. Zdola nahoru (post pruning) Post pruning nechá strom zcela vyrůst a rozkošatět, a pak zpět směrem od listů ruší nespolehlivé části. Pracuje tak, že napřed nechá strom zcela vyrůst, čímž jsou zachyceny i kombinace mezi atributy. Poté hledá, zda lze nějaké podstromy nahradit listem. V praxi se dává přednost metodě post pruning (zdola nahoru), protože pre pruning mívá tendenci zastavit růst větve příliš brzo. Pre pruning je ale výpočetně rychlejší metoda než post pruning. 14. Jsou data obecně strukturována? Proč ano / proč ne Data jsou nejčastěji uspořádána formou tabulky, kde řádky představují instance (příklady, vzorky,...) a sloupce atributy (dimenze, parametry, proměnné, vlastnosti,...) 15. RBF: co to je, funkce neuronu ve skryté vrstvě. Podmínky aproximace u nelineární funkce s ohledem na chybu

5 16. Co je to umělá neuronová síť. Jaké jsou typy vrstev a jak se dá použít pro modelování funkcí. Umělé neuronové sítě simulují činnost biologického mozku (centrální nervové soustavy) propojením velkého množství jednotek zvaných neuron (perceptron) do síťové struktury. Neuron představuje přenosovou funkci, která na základě kombinace hodnot vstupních proměnných x1, x2, x3,..., xn předává na výstupu odpovídající hodnotu y: y = f (x1, x2, x3,..., xn) Základní jednotka perceptron přiřazuje každému vstupu hodnot odpovídající výstup, který je v nejjednodušším případě dán váhovaným součtem vstupů. Pokud váhovaný součet překročí nějakou stanovenou hranici, perceptron předá výstupní nenulovou hodnotu. Vstupy mohou pocházet z libovolných zdrojů (senzorů) a mohou být tvořeny i výstupy z jiných perceptronů dle konkrétní architektury sítě. Nejjednodušší perceptron představuje lineární funkci. Pro modelování nelineárních funkcí se nehodí, tj. lze jej použít pro nalezení hranice mezi lineárně oddělitelnými třídami, jinak však pracuje s (velkou) chybou. Při trénování sítě jako klasifikátoru jsou známy vstupy, výstupy, přenosové funkce perceptronů (např. skoková, sigmoida, hyperbolický tangens), stanoví se architektura sítě (počty vrstev a počty neuronů v jednotlivých vrstvách), a iterativně se hledají váhy propojení jednotek mezi vrstvami (na začátku jsou náhodně nastaveny na velmi malé hodnoty v oboru reálných čísel). Trénování je obecně časově náročné. Kromě sítí s dopředným šířením signálu (feedforward ) existují i sítě se zpětnou vazbou (feedback). 17. Co je to diskretizace. Převést data buď ze spojitého universa na diskrétní, resp. naopak. Diskretizaci lze provést mnoha různými metodami, včetně zcela automatické (unsupervised) nebo řízené (supervised). Diskretizace musí rozdělit číselný interval, považovaný za spojitý, na soubor podintervalů. Každý vzniklý podinterval pak hraje roli nominální hodnoty. Některé z možných a používaných metod diskretizace: a) Rozdělení na určitý počet podintervalů stejné délky (nevýhoda může být ve velmi různém počtu hodnot v každém intervalu). b) Rozdělení na podintervaly, kde každý obsahuje (přibližně) stejný počet hodnot (v praxi se osvědčuje jako heuristika se pro stanovení počtu intervalů často používá druhá odmocnina z celkového počtu hodnot daného atributu; intervaly ovšem mohou mít velmi různou délku).

6 c) Rozdělení na podintervaly pomocí entropie, kde každý podinterval obsahuje (pokud možno) pouze hodnoty patřící do jediné třídy (diskretizace řízená tréninkovými daty). První krok diskretizace spočívá v seřazení hodnot. V dalším kroku se jednou z možných metod hledají dělící body mezi hodnotami, tj. hranice podintervalů. Další možné diskretizační metody: Nikoliv shora dolů, jak ukázáno, ale naopak zdola nahoru, tj. napřed každá jednotlivá instance je oddělena a pak se hledá, zda ji lze spojit se sousední. Počítání chyb, ke kterým dojde při predikci pro různé diskretizace (hrozí degenerace, že každá instance bude prohlášena za interval; je nutno předem omezit počet intervalů). Metoda hrubou silou vyzkoušet všechny možnosti je exponenciálně náročná (počet intervalů k je v exponentu). Dynamické programování (způsob optimalizace) rozdělí N instancí do k intervalů v čase úměrném kn^ Popsat skrytou vrstvu RBF a jaké mají být podmínky, pokud chci aproximovat nějakou nelineární funkci Mají li perceptrony aproximovat neznámou nelineární funkci, musí být jejich přenosová funkce také nelineární, protože (i síťová) kombinace lineárních funkcí může vytvořit zase jenom funkci lineární. Množství skrytých vrstev ovlivňuje možnosti modelování nelineárních funkcí (diferencovatelné, hladké, nespojité,nediferencovatelné,...). Skrytá vrstva počítá váhované výstupy jednotlivých RBF a výstupní vrstva lineární kombinace těchto hodnot (může být více než 1 výstupní neuron). 20. Co je to IBL a jaké jsou jeho úrovně? Existuje oblast, zvaná Instance Based Learning (IBL), která je obecnější (a zahrnuje popsaný K-NN) a která obsahuje modifikace nejbližšího souseda odstraňující řadu nedostatků. Verze existují IB1, IB2, IB3, IB4. Jednoduchou modifikací lze snížit jeho vysokou paměťovou náročnost, je-li k dispozici dostatečné množství trénovačích příkladů (IB2) Rodina učících algoritmů, které místo provedení generalizace porovnávají nové instance s těmi již známými z trénování, které jsou uložené v paměti 21. Co je to atribut + druhy v tabulce s daty predstavovan sloupcem atributy:dimenze, parametry, proměnné, vlastnosti, numerick, nominalni, binarni Spojité a diskrétní atributy

7 Atributy popisující objekty mají velmi často číselný charakter (nejen binární či nominální). Obecně mohou být numerické atributy definovány na spojité reálné ose. Některé algoritmy jsou schopny zcela přirozeně pracovat i s číselnými atributy, část z nich pouze s numerickými hodnotami (např. metoda nejbližšího souseda k NN využívající Eukleidovy vzdálenosti, nebo algoritmy založené na regresních technikách, např. regresní strom M5P, kde i klasifikační třída je numerická). V takových případech je nutno převést data buď ze spojitého universa na diskrétní, resp. naopak. 22. Proč RBF používají umělých neuronu. Výhody a nevýhody. 23. K čemu je normalizace u k NN? U k NN může nastat potíž tehdy, jsou li měřítka na osách různá; např. výška v mm a váha v kg. Problém se řeší normalizací do intervalu (0.0, 1.0) 24. Hierarchické postavení: data, informace, znalosti 1) Z reálného světa získáváme data, která obsahují šum 2) Filtrací šumu z dat získáme samotná data 3) Filtrací nerelevantních dat (zajímavých pro řešený problém) získáme informace 4) Generalizací informací dosáhneme primárního cíle, čímž je získání znalostí z informací 5) Získání metaznalosti (znalost o znalosti) 25. Co to je lokální váhová funkce? Pokud jsou perceptrony propojeny do sítě, pak každý z nich představuje lokální funkci svých váhovaných vstupů. 26. Vícevrstevná síť, typy vrstev, jak lze použít k modelování funkcí Síťové propojení poskytuje libovolný počet různých struktur v závislosti na počtu perceptronů a způsobu jejich propojení. Nejobvyklejší je vytváření tzv. vícevrstvých sítí, kde jsou perceptrony strukturovány do jednotlivých vrstev, které jsou mezi sebou propojeny. Tyto sítě jsou tvořeny vrstvou vstupní, libovolným počtem vrstev skrytých, a vrstvou výstupní. Množství skrytých vrstev ovlivňuje možnosti modelování nelineárních funkcí (diferencovatelné, hladké, nespojité, nediferencovatelné,...). 27. Co lze provést s chybějícími daty u atributu Instance s chybějícími hodnotami přinášejí méně informace do zpracování, takže výsledek klasifikace má obecně vyšší chybovost. Při dostatečném množství trénovacích instancí lze ty neúplné ze zpracování vyřadit; jinak je nutno chybějící hodnoty nahradit pomocí např. pravděpodobnostního výpočtu. Lze také zavést umělou hodnotu missing a strom pak ukáže, kam vede větev při výskytu

8 chybějící hodnoty určitého atributu, což může napovědět, do jaké míry chybějící hodnoty ovlivňují výsledek. Někdy lze atribut s chybějícími hodnotami vyřadit jako irelevantní i za cenu zvýšení chyby klasifikace. 28. Bayesovské učení Založena na použití teorie pravděpodobnosti. Základ je bayesův teorém: P(h) je apriorní pravděpodobnost platnosti hypotézy hpřed tím, než byla získána trénovací data D, P(D) je pravděpodobnost pozorování dat D bez jakéhokoliv vztahu k nějaké hypotéze h, P(D h) pravděpodobnost zpozorování dat D ve světě, kde platí hypotéza h, a P(h D) je aposteriorní pravděpodobnost hypotézy h za předpokladu pozorování dat D. 29. Bootstrap Bootstrap je statistická metoda založená na výběru s vracením. Vzniklá sada příkladů tak může obsahovat některé příklady vícekrát (nelze hovořit o množině). Některé příklady jsou náhodně vybrány vícekrát, jiné nejsou vybrány nikdy právě tyto nevybrané příklady pak vytvoří testovací množinu. 30. Pojmy dolování Dolování z dat je zaměřeno na odkrytí znalosti v datech ukryté: data informace znalost. Dolování z dat využívá veškeré vhodné technologie, zejména strojové učení, umělou inteligenci, logiku a matematiku. Popsat data -> informace -> znalost 31. Business Inteligence a strojové učení. Strojové učení je moderní, rychle a neustále se rozvíjející technologie pro získávání ( dolování ) znalosti z dat. Umělá inteligence se zabývá technologiemi prohledávání libovolných (reálných a abstraktních) prostorů; cílem je nalezení optima (globálního maxima), což je nejlepší řešení nějakého zadaného problému. Dolování z dat je zaměřeno na odkrytí znalosti v datech ukryté: data informace znalost. Dolování z dat využívá veškeré vhodné technologie, zejména strojové učení, umělou inteligenci, logiku a matematiku.

9 32. Rozdíly NBK a OBK + použití Libovolný systém, který používá pro klasifikaci nových příkladů vztah pro Bayesův optimální klasifikátor, se nazývá optimální Bayesovský učící se systém (OBK). Tato metoda maximalizuje pravděpodobnost, že nové instance budou klasifikovány korektně za předpokladu, že jsou k dispozici určitá data pro natrénování (tj. stanovení aposteriorních pravděpodobností), prostor hypotéz a apriorní pravděpodobnosti nad těmito hypotézami. Naivní Bayesovský klasifikátor (NBK), je jednou z vysoce praktických metod strojového učení. Vychází z popsaného optimálního Bayesova klasifikátoru (OBK) a umožňuje snížit výpočetní složitost za předpokladu určitého, teoreticky ne zcela korektního zjednodušení cenou je možné snížení přesnosti, ale pragmatický přínos je velmi výrazný pro úlohy popsané mnoha atributy (desítky a mnohem více). NBK může dosáhnout i stejné přesnosti jako OBK, nebo se výsledkům OBK dostatečně přiblížit, jak ukazují výsledky tisíců aplikací v reálném světě, protože praktická realita většinou do značné míry vyhovuje teoretickým požadavkům. Samozřejmě, že výsledky NBK mohou být špatné, pokud je odchylka od teoretického předpokladu velká; pak nelze NBK použít. 33. Metriky 34. Vrstvy umělé neuronové sítě (jak lze využít pro modelování funkcí) 35. Jak automaticky vygenerovat rozhodovací strom Rozhodovací strom model vytvořený minimalizací entropie na základě pozorování určitých reálných situací zachycených formou dat. Forma obecné znalosti co se může aplikovat na případy v budoucnosti. 36. Ockhamova břitva a vztah k dolování z dat Není zřejmé, jakou architekturu má síť mít. Lze zkusit různé architektury (pouze počet vstupních a výstupních jednotek je dán úlohou). Jako výsledek se vybere dle Occamova (resp. Ockhamova) pravidla architektura nejjednodušší, dává-li stejně dobré výsledky jako architektury složitější (tzv. Occamova břitva) 37. Jaké znáte učící algoritmy? k-nn nejbližší sousedé SVM algoritmy podpůrných vektorů Stanovuje lineární i nelineární hranici mezi dvěma třídami. Řeší problém, jak v prostoru umístit hyperrovinu tak, aby optimálně od sebe oddělovala body patřící do dvou různých kategorií. Existuje-li takové možné oddělení, pak obvykle není jediné, ale je jich nekonečně mnoho.

10 Například v rovině lze vést mezi dvěma disjunktními množinami libovolný počet přímek, z nichž každá dokonale odděluje od sebe prvky obou množin jednou z metod, jak takovouto hranici najít, je např. metoda nejmenších čtverců. 48. Pojmy černá skříňka, šedá skříňka, bílá skříňka: Natrénované algoritmy lze rozdělit podle typu poskytované znalosti, která se aplikuje na případy v budoucnosti: Reálný svět -> trénovací příklady -> černá skříňka (nesrozumitelná znalost) Reálný svět -> trénovací příklady -> šedá skříňka (částečně srozumitelná znalost) Reálný svět -> trénovací příklady -> bílá skříňka (srozumitelná znalost) 39. Co je trénování a testování? (vztah, rozdíl) Pojmy v rámci strojového učení s učitelem probíhající na algoritmech: Trénování slouží k naučení algoritmu a definici klasifikátoru - Typ indukovaného učení z příkladu Cross validace rozšířená metoda pro trénink. Rozdělí data na pokud možno stejně velké části např. 10. Pak proběhne 10 tréninků tak, že v každém z nich se použije 9 podmnožin jako trénovací a 1 jako testovací. Každý trénink používá pro testování různou z podmnožin, takže postupně všechna data jsou využita na trénování a testování. Každé testování zjistí chybu klasifikátoru, a výsledná očekávaná chyba je průměrem. Výsledný klasifikátor se pak natrénuje pomocí všech příkladů. Extrémem je rozdělení trénovací množiny na počet podmnožin odpovídající počtu trénovacích příkladů n. Pak se jedná o tzv. krosvalidaci 1-z-n, která má výhodu v trénování téměř všemi instancemi v každém z n trénovacích kroků. Nevýhodou je úplná ztráta rozložení hodnot [které je při obyčejné krosvalidaci (náhodným výběrem) do určité míry v podmnožinách zachováno]. Testování slouží k určení chyby klasifikátoru - Data buď vyčleněná z tréningu, nebo část tréninkových dat 40. Co je to Voroného diagram? K čemu slouží + konstrukce Znázorňuje rozhodovací prostor indukovaný algoritmem 1-NN. Slouží k identifikaci nejbližší oblasti zkoumaného případu. Jde o konvexní polygon kolem každé trénovací instance, který indikuje jí nejbližší oblast. Navrhování skupin klasifikátorů: Bagging, Boosting Metoda bagging ( rozdělování do sáčků ) patří k nejjednodušším postupům. Název je odvozen ze slov bootstrap aggregation ( svépomocné nahromadění ), kde se využívá více trénovacích množin, z nichž každá je vytvořena výběrem n < n příkladů ze základní trénovací množiny D, která obsahuje n příkladů. Každá z takto vzniklých podmnožin di Ì D je použita k natrénování jednoho z více klasifikátorů.

11 Výsledná klasifikace neznámého datového vzorku je pak určena hlasováním všech takto vytvořených klasifikátorů, tj. vzorek je zařazen do třídy určené většinou. Cílem metody boosting ( posilování ) je zlepšení klasifikační přesnosti libovolného algoritmu strojového učení. I zde je základem vytvoření více klasifikátorů pomocí výběru vzorků ze základní trénovací množiny D. Boosting vychází z vytvoření prvního klasifikátoru, jehož klasifikační přesnost je lepší než 50 %. Dále jsou přidávány další klasifikátory mající stejnou klasifikační vlastnost, takže je vygenerován soubor klasifikátorů, jehož celková klasifikační přesnost je libovolně vysoká vzhledem ke vzorkům v trénovací množině klasifikace byla posílena (boosted). Bayesovské sítě Bayesovské sítě (Bayesian networks) patří do skupiny algoritmů zvaných grafické modely. Tyto modely představují vzájemné působení (interakce) mezi proměnnými v grafické formě, visuálně. Jejich velkou výhodou je, že pro velký počet proměnných, popisujících zkoumané případy, umožňují rozložit problém na soubor lokálních výpočtů s malým počtem proměnných. Využívá se k tomu podmíněná nezávislost.

2. RBF neuronové sítě

2. RBF neuronové sítě 2. RBF neuronové sítě Kapitola pojednává o neuronových sítích typu RBF. V kapitole je popsána základní struktura tohoto typu neuronové sítě. Poté následuje definice a charakteristika jednotlivých radiálně

Více

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby Algoritmy a struktury neuropočítačů ASN P4 Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby Vrstevnatá struktura - vícevrstvé NN (Multilayer NN, MLNN) vstupní vrstva (input layer)

Více

Dodatek č. 3 ke školnímu vzdělávacímu programu. Strojírenství. (platné znění k 1. 9. 2009)

Dodatek č. 3 ke školnímu vzdělávacímu programu. Strojírenství. (platné znění k 1. 9. 2009) Střední průmyslová škola Jihlava tř. Legionářů 1572/3, Jihlava Dodatek č. 3 ke školnímu vzdělávacímu programu Strojírenství (platné znění k 1. 9. 09) Tento dodatek nabývá platnosti dne 1. 9. 13 (počínaje

Více

Neuronové sítě Ladislav Horký Karel Břinda

Neuronové sítě Ladislav Horký Karel Břinda Neuronové sítě Ladislav Horký Karel Břinda Obsah Úvod, historie Modely neuronu, aktivační funkce Topologie sítí Principy učení Konkrétní typy sítí s ukázkami v prostředí Wolfram Mathematica Praktické aplikace

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

Úvod do optimalizace, metody hladké optimalizace

Úvod do optimalizace, metody hladké optimalizace Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady

Více

Rozhodovací stromy a jejich konstrukce z dat

Rozhodovací stromy a jejich konstrukce z dat Příklad počítačová hra. Můžeme počítač naučit rozlišovat přátelské a přátelské roboty? Rozhodovací stromy a jejich konstruk z dat Učení s učitelem: u některých už víme, jakou mají povahu (klasifika) Neparametrická

Více

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 4 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology

Více

Neuropočítače. podnět. vnímání (senzory)

Neuropočítače. podnět. vnímání (senzory) Neuropočítače Princip inteligentního systému vnímání (senzory) podnět akce (efektory) poznání plánování usuzování komunikace Typické vlastnosti inteligentního systému: schopnost vnímat podněty z okolního

Více

Informační systémy pro podporu rozhodování

Informační systémy pro podporu rozhodování Informační systémy pro rozhodování Informační systémy pro podporu rozhodování 5 Jan Žižka, Naděžda Chalupová Ústav informatiky PEF Mendelova universita v Brně Asociační pravidla Asociační pravidla (sdružovací

Více

Jazyk matematiky. 2.1. Matematická logika. 2.2. Množinové operace. 2.3. Zobrazení. 2.4. Rozšířená číslená osa

Jazyk matematiky. 2.1. Matematická logika. 2.2. Množinové operace. 2.3. Zobrazení. 2.4. Rozšířená číslená osa 2. Jazyk matematiky 2.1. Matematická logika 2.2. Množinové operace 2.3. Zobrazení 2.4. Rozšířená číslená osa 1 2.1 Matematická logika 2.1.1 Výrokový počet logická operace zapisujeme čteme česky negace

Více

Řešení problému batohu dynamickým programováním, metodou větví a hranic a aproximativním algoritmem

Řešení problému batohu dynamickým programováním, metodou větví a hranic a aproximativním algoritmem 2. 1. 213 MI-PAA úkol č. 2 Antonín Daněk Řešení problému batohu dynamickým programováním, metodou větví a hranic a aproximativním algoritmem 1 SPECIFIKACE ÚLOHY Cílem tohoto úkolu bylo naprogramovat řešení

Více

Získávání znalostí z dat

Získávání znalostí z dat Získávání znalostí z dat Informační a komunikační technologie ve zdravotnictví Získávání znalostí z dat Definice: proces netriviálního získávání implicitní, dříve neznámé a potencionálně užitečné informace

Více

Základy matematiky kombinované studium 714 0365/06

Základy matematiky kombinované studium 714 0365/06 Základy matematiky kombinované studium 714 0365/06 1. Některé základní pojmy: číselné množiny, intervaly, operace s intervaly (sjednocení, průnik), kvantifikátory, absolutní hodnota čísla, vzorce: 2. Algebraické

Více

Seminář z matematiky. jednoletý volitelný předmět

Seminář z matematiky. jednoletý volitelný předmět Název předmětu: Zařazení v učebním plánu: Seminář z matematiky O8A, C4A, jednoletý volitelný předmět Cíle předmětu Obsah předmětu je koncipován pro přípravu studentů k úspěšnému zvládnutí profilové (školní)

Více

Bayesovská klasifikace digitálních obrazů

Bayesovská klasifikace digitálních obrazů Výzkumný ústav geodetický, topografický a kartografický Bayesovská klasifikace digitálních obrazů Výzkumná zpráva č. 1168/2010 Lubomír Soukup prosinec 2010 1 Úvod V průběhu nedlouhého historického vývoje

Více

zejména Dijkstrův algoritmus pro hledání minimální cesty a hladový algoritmus pro hledání minimální kostry.

zejména Dijkstrův algoritmus pro hledání minimální cesty a hladový algoritmus pro hledání minimální kostry. Kapitola Ohodnocené grafy V praktických aplikacích teorie grafů zpravidla graf slouží jako nástroj k popisu nějaké struktury. Jednotlivé prvky této struktury mají často přiřazeny nějaké hodnoty (může jít

Více

MATEMATIKA Charakteristika vyučovacího předmětu 2. stupeň

MATEMATIKA Charakteristika vyučovacího předmětu 2. stupeň MATEMATIKA Charakteristika vyučovacího předmětu 2. stupeň Obsahové, časové a organizační vymezení Předmět Matematika se vyučuje jako samostatný předmět v 6. až 8. ročníku 4 hodiny týdně, v 9. ročníku 3

Více

Euklidovský prostor Stručnější verze

Euklidovský prostor Stručnější verze [1] Euklidovský prostor Stručnější verze definice Eulidovského prostoru kartézský souřadnicový systém vektorový součin v E 3 vlastnosti přímek a rovin v E 3 a) eprostor-v2, 16, b) P. Olšák, FEL ČVUT, c)

Více

MATURITNÍ TÉMATA Z MATEMATIKY

MATURITNÍ TÉMATA Z MATEMATIKY MATURITNÍ TÉMATA Z MATEMATIKY 1. Základní poznatky z logiky a teorie množin Pojem konstanty a proměnné. Obor proměnné. Pojem výroku a jeho pravdivostní hodnota. Operace s výroky, složené výroky, logické

Více

Informační systémy pro podporu rozhodování

Informační systémy pro podporu rozhodování Informační systémy pro podporu rozhodování 2 Jan Žižka, Naděžda Chalupová Ústav informatiky PEF Mendelova universita v Brně Strojové učení, umělá inteligence, dolování z dat Strojové učení je moderní,

Více

IB108 Sada 1, Příklad 1 Vypracovali: Tomáš Krajča (255676), Martin Milata (256615)

IB108 Sada 1, Příklad 1 Vypracovali: Tomáš Krajča (255676), Martin Milata (256615) IB108 Sada 1, Příklad 1 ( ) Složitost třídícího algoritmu 1/-Sort je v O n log O (n.71 ). Necht n = j i (velikost pole, které je vstupním parametrem funkce 1/-Sort). Lehce spočítáme, že velikost pole předávaná

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 1/26 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information

Více

Typy umělých neuronových sítí

Typy umělých neuronových sítí Tp umělých neuronových sítí umělá neuronová síť vznikne spojením jednotlivých modelů neuronů výsledná funkce sítě je určena způsobem propojení jednotlivých neuronů, váhami těchto spojení a způsobem činnosti

Více

předmětu MATEMATIKA B 1

předmětu MATEMATIKA B 1 Metodický list pro první soustředění kombinovaného studia předmětu MATEMATIKA B 1 Název tématického celku: Vektorový prostor Cíl: Základním cílem tohoto tematického celku je pochopit, co jsou to vektory

Více

Integrace. Numerické metody 7. května FJFI ČVUT v Praze

Integrace. Numerické metody 7. května FJFI ČVUT v Praze Integrace Numerické metody 7. května 2018 FJFI ČVUT v Praze 1 Úvod Úvod 1D Kvadraturní vzorce Gaussovy kvadratury Více dimenzí Programy 1 Úvod Úvod - Úloha Máme funkci f( x) a snažíme se najít určitý integrál

Více

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013 Ambasadoři přírodovědných a technických oborů Ing. Michal Řepka Březen - duben 2013 Umělé neuronové sítě Proč právě Neuronové sítě? K čemu je to dobré? Používá se to někde v praxi? Úvod Umělé neuronové

Více

Rosenblattův perceptron

Rosenblattův perceptron Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného

Více

Umělé neuronové sítě

Umělé neuronové sítě Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační

Více

Učební texty k státní bakalářské zkoušce Matematika Matice. študenti MFF 15. augusta 2008

Učební texty k státní bakalářské zkoušce Matematika Matice. študenti MFF 15. augusta 2008 Učební texty k státní bakalářské zkoušce Matematika Matice študenti MFF 15. augusta 2008 1 12 Matice Požadavky Matice a jejich hodnost Operace s maticemi a jejich vlastnosti Inversní matice Regulární matice,

Více

NG C Implementace plně rekurentní

NG C Implementace plně rekurentní NG C Implementace plně rekurentní neuronové sítě v systému Mathematica Zdeněk Buk, Miroslav Šnorek {bukz1 snorek}@fel.cvut.cz Neural Computing Group Department of Computer Science and Engineering, Faculty

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

Matematická statistika

Matematická statistika Matematická statistika Daniel Husek Gymnázium Rožnov pod Radhoštěm, 8. A8 Dne 12. 12. 2010 v Rožnově pod Radhoštěm Osnova Strana 1) Úvod 3 2) Historie matematické statistiky 4 3) Základní pojmy matematické

Více

2. Matice, soustavy lineárních rovnic

2. Matice, soustavy lineárních rovnic Matice, soustavy lineárních rovnic Tento učební text byl podpořen z Operačního programu Praha- Adaptabilita Irena Sýkorová Některé vlastnosti matic Uvažujmečtvercovoumatici A=(a ij ) n n Matice Asenazývásymetrická,jestližeplatí

Více

(Auto)korelační funkce. 2. 11. 2015 Statistické vyhodnocování exp. dat M. Čada www.fzu.cz/ ~ cada

(Auto)korelační funkce. 2. 11. 2015 Statistické vyhodnocování exp. dat M. Čada www.fzu.cz/ ~ cada (Auto)korelační funkce 1 Náhodné procesy Korelace mezi náhodnými proměnnými má široké uplatnění v elektrotechnické praxi, kde se snažíme o porovnávání dvou signálů, které by měly být stejné. Příkladem

Více

Matematika B101MA1, B101MA2

Matematika B101MA1, B101MA2 Matematika B101MA1, B101MA2 Zařazení předmětu: povinný předmět 1.ročníku bc studia 2 semestry Rozsah předmětu: prezenční studium 2 + 2 kombinované studium 16 + 0 / semestr Zakončení předmětu: ZS zápočet

Více

Implementace A* algoritmu na konkrétní problém orientace v prostoru budov

Implementace A* algoritmu na konkrétní problém orientace v prostoru budov Implementace A* algoritmu na konkrétní problém orientace v prostoru budov Popis problému Orientaci ve známém prostředí lze převést na problém nalezení cesty z místa A do místa B. Obecně platí, že robot

Více

KOMPLEXNÍ ČÍSLA INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ. Tento projekt je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky

KOMPLEXNÍ ČÍSLA INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ. Tento projekt je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky KOMPLEXNÍ ČÍSLA Gymnázium Jiřího Wolkera v Prostějově Výukové materiály z matematiky pro vyšší gymnázia Autoři projektu Student na prahu 21. století - využití ICT ve vyučování matematiky na gymnáziu INVESTICE

Více

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc Neuronové sítě a možnosti jejich využití Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc 1. Biologický neuron Osnova 2. Neuronové sítě Umělý neuron

Více

Trénování sítě pomocí učení s učitelem

Trénování sítě pomocí učení s učitelem Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ Metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

DATA MINING KLASIFIKACE DMINA LS 2009/2010

DATA MINING KLASIFIKACE DMINA LS 2009/2010 DATA MINING KLASIFIKACE DMINA LS 2009/2010 Osnova co je to klasifikace typy klasifikátoru typy výstupu jednoduchý klasifikátor (1R) rozhodovací stromy Klasifikace (ohodnocení) zařazuje data do předdefinovaných

Více

Vyučovací předmět: Matematika. Charakteristika vyučovacího předmětu

Vyučovací předmět: Matematika. Charakteristika vyučovacího předmětu Vyučovací předmět: Matematika Školní vzdělávací program pro základní vzdělávání Základní školy a mateřské školy Dobrovice Charakteristika vyučovacího předmětu Obsahové, časové a organizační vymezení předmětu

Více

Výpočetní teorie učení. PAC učení. VC dimenze.

Výpočetní teorie učení. PAC učení. VC dimenze. Výpočetní teorie učení. PAC učení. VC dimenze. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics COLT 2 Koncept...........................................................................................................

Více

Usuzování za neurčitosti

Usuzování za neurčitosti Usuzování za neurčitosti 25.11.2014 8-1 Usuzování za neurčitosti Hypotetické usuzování a zpětná indukce Míry postačitelnosti a nezbytnosti Kombinace důkazů Šíření pravděpodobnosti v inferenčních sítích

Více

2.2. SČÍTÁNÍ A NÁSOBENÍ MATIC

2.2. SČÍTÁNÍ A NÁSOBENÍ MATIC 22 SČÍTÁNÍ A NÁSOBENÍ MATIC V této kapitole se dozvíte: jak je definováno sčítání matic a jaké má základní vlastnosti jak je definováno násobení matic číslem a jaké má základní vlastnosti zda a proč se

Více

NAIL072 ROZPOZNÁVÁNÍ VZORŮ

NAIL072 ROZPOZNÁVÁNÍ VZORŮ NAIL072 ROZPOZNÁVÁNÍ VZORŮ RNDr. Jana Štanclová, Ph.D. jana.stanclova@ruk.cuni.cz www.cuni.cz/~stancloj LS Zk 2/0 OSNOVA 1. Úvod do rozpoznávání vzorů 2. Bayesovská teorie rozpoznávání 3. Diskriminační

Více

5. Umělé neuronové sítě. Neuronové sítě

5. Umělé neuronové sítě. Neuronové sítě Neuronové sítě Přesný algoritmus práce přírodních neuronových systémů není doposud znám. Přesto experimentální výsledky na modelech těchto systémů dávají dnes velmi slibné výsledky. Tyto systémy, včetně

Více

Základní škola Moravský Beroun, okres Olomouc

Základní škola Moravský Beroun, okres Olomouc Charakteristika vyučovacího předmětu matematika Vyučovací předmět má časovou dotaci čtyři hodiny týdně v prvním ročníku, pět hodin týdně ve druhém až pátém ročníku, pět hodin týdně v šestém ročníku a čtyři

Více

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY

Více

Ten objekt (veličina), který se může svobodně měnit se nazývá nezávislý.

Ten objekt (veličina), který se může svobodně měnit se nazývá nezávislý. @001 1. Základní pojmy Funkce funkční? Oč jde? Třeba: jak moc se oblečeme, závisí na venkovní teplotě, jak moc se oblečeme, závisí na našem mládí (stáří) jak jsme staří, závisí na čase jak moc zaplatíme

Více

Informační systémy pro podporu rozhodování

Informační systémy pro podporu rozhodování Informační systémy pro podporu rozhodování 3 Jan Žižka, Naděžda Chalupová Ústav informatiky PEF Mendelova universita v Brně Nejbližší sousedi k NN Algoritmus k-nejbližších sousedů (k-nearest neighbors)

Více

Teoretická rozdělení

Teoretická rozdělení Teoretická rozdělení Diskrétní rozdělení Obsah kapitoly Studijní cíle Doba potřebná ke studiu Pojmy k zapamatování Úvod Některá teoretická rozdělení diskrétních veličin: Alternativní rozdělení Binomické

Více

Přehled učiva matematiky 7. ročník ZŠ

Přehled učiva matematiky 7. ročník ZŠ Přehled učiva matematiky 7. ročník ZŠ I. ARITMETIKA 1. Zlomky a racionální čísla Jestliže rozdělíme něco (= celek) na několik stejných dílů, nazývá se každá část celku zlomkem. Zlomek tři čtvrtiny = tři

Více

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u

Více

Určování výměr Srážka mapového listu Výpočet objemů Dělení pozemků

Určování výměr Srážka mapového listu Výpočet objemů Dělení pozemků Geodézie přednáška 9 Určování výměr Srážka mapového listu Výpočet objemů Dělení pozemků Ústav geoinformačních technologií Lesnická a dřevařská fakulta ugt.mendelu.cz tel.: 545134015 Určování výměr určování

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Přednáška 13 Redukce dimenzionality

Přednáška 13 Redukce dimenzionality Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /

Více

P ř e d m ě t : M A T E M A T I K A

P ř e d m ě t : M A T E M A T I K A 04-ŠVP-Matematika-P,S,T,K strana 1 (celkem 11) 1. 9. 2014 P ř e d m ě t : M A T E M A T I K A Charakteristika předmětu: Matematika vytváří postupným osvojováním matematických pojmů, útvarů, algoritmů a

Více

Posloupnosti a jejich konvergence POSLOUPNOSTI

Posloupnosti a jejich konvergence POSLOUPNOSTI Posloupnosti a jejich konvergence Pojem konvergence je velmi důležitý pro nediskrétní matematiku. Je nezbytný všude, kde je potřeba aproximovat nějaké hodnoty, řešit rovnice přibližně, používat derivace,

Více

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu Neuronové sítě L. Horký*, K. Břinda** Fakulta jaderná a fyzikálně inženýrská, Břehová 7, 115 19 Praha 1 *horkyladislav@seznam.cz, **brinda@fjfi.cvut.cz Abstrakt Cílem našeho příspěvku je získat uživatelský

Více

ALGORITMIZACE PROGRAMOVÁNÍ VT3/VT4

ALGORITMIZACE PROGRAMOVÁNÍ VT3/VT4 1 ALGORITMIZACE PROGRAMOVÁNÍ VT3/VT4 Mgr. Martin ŠTOREK LITERATURA ALGORITMIZACE Ing. Jana Pšenčíková ComputerMedia http://www.computermedia.cz/ 2 1 ALGORITMUS Algoritmus je přesný postup, který je potřeba

Více

Intervalové stromy. Představme si, že máme posloupnost celých čísel p 0, p 1,... p N 1, se kterou budeme. 1. Změna jednoho čísla v posloupnosti.

Intervalové stromy. Představme si, že máme posloupnost celých čísel p 0, p 1,... p N 1, se kterou budeme. 1. Změna jednoho čísla v posloupnosti. Intervalové stromy Představme si, že máme posloupnost celých čísel p 0, p 1,... p N 1, se kterou budeme průběžně provádět tyto dvě operace: 1. Změna jednoho čísla v posloupnosti. 2. Zjištění součtu čísel

Více

Materiály charakteristiky potř ebné pro navrhování

Materiály charakteristiky potř ebné pro navrhování 2 Materiály charakteristiky potřebné pro navrhování 2.1 Úvod Zdivo je vzhledem k velkému množství druhů a tvarů zdicích prvků (cihel, tvárnic) velmi různorodý stavební materiál s rozdílnými užitnými vlastnostmi,

Více

Státnice odborné č. 19

Státnice odborné č. 19 Státnice odborné č. 19 Klasifikace dat do tříd Klasifikace dat do tříd. Metoda k-nejbližších sousedů, lineární separace, Perceptronový algoritmus, neuronové sítě Klasifikace dat do tříd, Klasifikace a

Více

Matematické symboly a značky

Matematické symboly a značky Matematické symboly a značky Z Wikipedie, otevřené encyklopedie Matematický symbol je libovolný znak, používaný v. Může to být znaménko pro označení operace s množinami, jejich prvky, čísly či jinými objekty,

Více

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Dálkový průzkum Země Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Klasifikace obrazu Klasifikaci můžeme obecně definovat jako seskupování vzájemně si podobných prvků (entit) do

Více

IBM SPSS Decision Trees

IBM SPSS Decision Trees IBM Software IBM SPSS Decision Trees Jednoduše identifikujte skupiny a predikujte Stromově uspořádané postupné štěpení dat na homogenní podmnožiny je technika vhodná pro exploraci vztahů i pro tvorbu rozhodovacích

Více

Rozhodovací stromy a lesy

Rozhodovací stromy a lesy Rozhodovací stromy a lesy Klára Komprdová Leden 2012 Příprava a vydání této publikace byly podporovány projektem ESF č. CZ.1.07/2.2.00/07.0318 Víceoborová inovace studia Matematické biologie a státním

Více

Strojové učení Marta Vomlelová

Strojové učení Marta Vomlelová Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer

Více

Pravděpodobnost a statistika

Pravděpodobnost a statistika Pravděpodobnost a statistika Diskrétní rozdělení Vilém Vychodil KMI/PRAS, Přednáška 6 Vytvořeno v rámci projektu 2963/2011 FRVŠ V. Vychodil (KMI/PRAS, Přednáška 6) Diskrétní rozdělení Pravděpodobnost a

Více

FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ. Matematika 3. RNDr. Břetislav Fajmon, PhD. Autoři textu:

FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ. Matematika 3. RNDr. Břetislav Fajmon, PhD. Autoři textu: FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ Matematika 3 Garant předmětu: RNDr. Břetislav Fajmon, PhD Autoři textu: Mgr. Irena Růžičková RNDr. Břetislav Fajmon, PhD

Více

Testování a spolehlivost. 6. Laboratoř Ostatní spolehlivostní modely

Testování a spolehlivost. 6. Laboratoř Ostatní spolehlivostní modely Testování a spolehlivost ZS 2011/2012 6. Laboratoř Ostatní spolehlivostní modely Martin Daňhel Katedra číslicového návrhu Fakulta informačních technologií ČVUT v Praze Příprava studijního programu Informatika

Více

1. Úvod do genetických algoritmů (GA)

1. Úvod do genetických algoritmů (GA) Obsah 1. Úvod do genetických algoritmů (GA)... 2 1.1 Základní informace... 2 1.2 Výstupy z učení... 2 1.3 Základní pomy genetických algoritmů... 2 1.3.1 Úvod... 2 1.3.2 Základní pomy... 2 1.3.3 Operátor

Více

Úvod do mobilní robotiky AIL028

Úvod do mobilní robotiky AIL028 zbynek.winkler at mff.cuni.cz, md at robotika.cz http://robotika.cz/guide/umor05/cs 5. prosince 2005 1 Mapa světa Exaktní plánování 2 3 Plánování s otáčením (náznak řešení) Mapa světa - příklad Obsah Mapa

Více

Globální matice konstrukce

Globální matice konstrukce Globální matice konstrukce Z matic tuhosti a hmotnosti jednotlivých prvků lze sestavit globální matici tuhosti a globální matici hmotnosti konstrukce, které se využijí v řešení základní rovnice MKP: [m]{

Více

Determinant. Definice determinantu. Permutace. Permutace, vlastnosti. Definice: Necht A = (a i,j ) R n,n je čtvercová matice.

Determinant. Definice determinantu. Permutace. Permutace, vlastnosti. Definice: Necht A = (a i,j ) R n,n je čtvercová matice. [] Definice determinantu BI-LIN, determinant, 9, P Olšák [2] Determinant je číslo jistým způsobem charakterizující čtvercovou matici det A 0 pro singulární matici, det A 0 pro regulární matici používá

Více

3. Vícevrstvé dopředné sítě

3. Vícevrstvé dopředné sítě 3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze

Více

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015 Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační

Více

Kód uchazeče ID:... Varianta: 14

Kód uchazeče ID:... Varianta: 14 Fakulta informačních technologií ČVUT v Praze Přijímací zkouška z matematiky 2013 Kód uchazeče ID:.................. Varianta: 14 1. V lednu byla zaměstnancům zvýšena mzda o 16 % prosincové mzdy. Následně

Více

FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci OBSAH A CÍLE SEMINÁŘE: Opakování a procvičení vybraných

Více

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC .6. VLASTNÍ ČÍSLA A VEKTORY MATIC V této kapitole se dozvíte: jak jsou definována vlastní (charakteristická) čísla a vektory čtvercové matice; co je to charakteristická matice a charakteristický polynom

Více

Lineární programování

Lineární programování Lineární programování Úlohy LP patří mezi takové úlohy matematického programování, ve kterých jsou jak kriteriální funkce, tak i všechny rovnice a nerovnice podmínek výhradně tvořeny lineárními výrazy.

Více

DYNAMICKÉ PROGRAMOVÁNÍ A PROBLÉM BATOHU

DYNAMICKÉ PROGRAMOVÁNÍ A PROBLÉM BATOHU ČVUT V PRAZE FAKULTA INFORMAČNÍCH TECHNOLOGIÍ JAN SCHMIDT A PETR FIŠER MI-PAA DYNAMICKÉ PROGRAMOVÁNÍ A PROBLÉM BATOHU EVROPSKÝ SOCIÁLNÍ FOND PRAHA A EU: INVESTUJEME DO VAŠÍ BUDOUCNOSTI Dynamické programování

Více

5. Maticová algebra, typy matic, inverzní matice, determinant.

5. Maticová algebra, typy matic, inverzní matice, determinant. 5. Maticová algebra, typy matic, inverzní matice, determinant. Matice Matice typu m,n je matice složená z n*m (m >= 1, n >= 1) reálných (komplexních) čísel uspořádaných do m řádků a n sloupců: R m,n (resp.

Více

Preceptron přednáška ze dne

Preceptron přednáška ze dne Preceptron 2 Pavel Křížek Přemysl Šůcha 6. přednáška ze dne 3.4.2001 Obsah 1 Lineární diskriminační funkce 2 1.1 Zobecněná lineární diskriminační funkce............ 2 1.2 Učení klasifikátoru........................

Více

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.

Více

Edita Kolářová ÚSTAV MATEMATIKY

Edita Kolářová ÚSTAV MATEMATIKY Přípravný kurs z matematik Edita Kolářová ÚSTAV MATEMATIKY Přípravný kurs z matematik 1 Obsah 1 Přehled použité smbolik 3 Základní pojm matematické logik a teorie množin 4.1 Element matematické logik.........................

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

Prognóza poruchovosti vodovodních řadů pomocí aplikace Poissonova rozdělení náhodné veličiny

Prognóza poruchovosti vodovodních řadů pomocí aplikace Poissonova rozdělení náhodné veličiny Prognóza poruchovosti vodovodních řadů pomocí aplikace Poissonova rozdělení náhodné veličiny Ing. Jana Šenkapoulová VODÁRENSKÁ AKCIOVÁ SPOLEČNOST, a.s. Brno, Soběšická 156, 638 1 Brno ÚVOD Každé rekonstrukci

Více

Komplexní čísla, Kombinatorika, pravděpodobnost a statistika, Posloupnosti a řady

Komplexní čísla, Kombinatorika, pravděpodobnost a statistika, Posloupnosti a řady Předmět: Náplň: Třída: Počet hodin: Pomůcky: Matematika Komplexní čísla, Kombinatorika, pravděpodobnost a statistika, Posloupnosti a řady 4. ročník a oktáva 3 hodiny týdně PC a dataprojektor, učebnice

Více

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] MATICE Matice typu m/n nad tělesem T je soubor m n prvků z tělesa T uspořádaných do m řádků a n sloupců: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] a m1 a m2 a mn Prvek a i,j je prvek matice A na místě

Více

Matematika a její aplikace Matematika - 2.období

Matematika a její aplikace Matematika - 2.období Vzdělávací oblast : Vyučovací předmět : Matematika a její aplikace Matematika - 2.období Charakteristika předmětu V předmětu Matematika je realizován obsah vzdělávací oblasti Matematika a její aplikace,

Více

Čebyševovy aproximace

Čebyševovy aproximace Čebyševovy aproximace Čebyševova aproximace je tzv hledání nejlepší stejnoměrné aproximace funkce v daném intervalu Hledáme funkci h x, která v intervalu a,b minimalizuje maximální absolutní hodnotu rozdílu

Více

Skalární součin je nástroj, jak měřit velikost vektorů a úhly mezi vektory v reálných a komplexních vektorových prostorech.

Skalární součin je nástroj, jak měřit velikost vektorů a úhly mezi vektory v reálných a komplexních vektorových prostorech. Kapitola 9 Skalární součin Skalární součin je nástroj, jak měřit velikost vektorů a úhly mezi vektory v reálných a komplexních vektorových prostorech. Definice 9.1 Je-li x = (x 1,..., x n ) T R n 1 reálný

Více

1. Alternativní rozdělení A(p) (Bernoulli) je diskrétní rozdělení, kdy. p(0) = P (X = 0) = 1 p, p(1) = P (X = 1) = p, 0 < p < 1.

1. Alternativní rozdělení A(p) (Bernoulli) je diskrétní rozdělení, kdy. p(0) = P (X = 0) = 1 p, p(1) = P (X = 1) = p, 0 < p < 1. 2. Některá důležitá rozdělení Diskrétní rozdělení. Alternativní rozdělení Ap) Bernoulli) je diskrétní rozdělení, kdy náhodná veličina X nabývá pouze dvou hodnot a a pro její pravděpodobnostní funkci platí:

Více

Součin matice A a čísla α definujeme jako matici αa = (d ij ) typu m n, kde d ij = αa ij pro libovolné indexy i, j.

Součin matice A a čísla α definujeme jako matici αa = (d ij ) typu m n, kde d ij = αa ij pro libovolné indexy i, j. Kapitola 3 Počítání s maticemi Matice stejného typu můžeme sčítat a násobit reálným číslem podobně jako vektory téže dimenze. Definice 3.1 Jsou-li A (a ij ) a B (b ij ) dvě matice stejného typu m n, pak

Více

Maturitní témata profilová část

Maturitní témata profilová část Seznam témat Výroková logika, úsudky a operace s množinami Základní pojmy výrokové logiky, logické spojky a kvantifikátory, složené výroky (konjunkce, disjunkce, implikace, ekvivalence), pravdivostní tabulky,

Více

Dolování znalostí z rozsáhlých statistických souborů lékařských dat

Dolování znalostí z rozsáhlých statistických souborů lékařských dat Mendelova univerzita v Brně Provozně ekonomická fakulta Dolování znalostí z rozsáhlých statistických souborů lékařských dat Diplomová práce Vedoucí práce: doc. Ing. Jan Žižka, CSc. Brno 2015 Vypracoval:

Více