Obsah přednášky. 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacking 5. Boosting 6. Shrnutí
|
|
- Jozef Novotný
- před 6 lety
- Počet zobrazení:
Transkript
1 1
2 Obsah přednášy 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacing 5. Boosting 6. Shrnutí 2
3 Meta learning = Ensemble methods Cíl použít predici ombinaci více různých modelů Meta learning (meta učení) ombinování více modelů metaznalost znalost o znalosti Záladní parametry (co musíme určit?) ja použijeme (rozdělíme) trénovací data jaé typy modelů ombinujeme ja ve výsledu lasifiujeme? Co je cílem meta-learningu? 3
4 Bumping cesta meta-learningu metoda využívající pouze jeden model, terý je ale vybraný z více modelů naučených na jedněch trénovacích datech z trénovacích dat o N prvcích je vytvořeno M trénovacích množin náhodným výběrem s opaováním o N prvcích (metoda bootstrap) použití poud je málo dat chyba modelu je spočtena ze všech trénovacích dat a na jejím záladě jsou vybrány nejlepší parametry modelu b z M vytvořených modelů b... b výsledy na nových testovacích datech doládají, že tento způsob vede výběru lepšího modelu než při výpočtu ze všech trénovacích dat (zejména robustní vůči uvíznutí v loálních extrémech) b arg min b N i j 1 M 1 LF y, i f b j, x i 4
5 Bagging idea Bagging = bootstrap aggregating Vytvořím z trénovacích dat M množin metodou bootstrap tedy výběr s opaováním Z dat naučím M modelů stejného typu (např. rozhodovacích stromů) Při lasifiaci nechám M modelů hlasovat o onečné predici, všechny modely jsou si rovnocené (mají stejnou váhu) vede e zpřesnění (a stabilizaci) predice, zhoršení pozorována jen ve výjimečných případech princip metody založen na teorii bias-variance deompozice 5
6 Bagging tvorba modelu máme N trénovacích dat, vybereme z nich náhodně výběrem s opaováním N instancí jao v metodě bootsrap pravděpodobnost výběru jednoho příladu je 1/N při výběru N prvů je pravděpodobnost, že jeden onrétní nebude ve výběru N 1 N N N 1 0,368 e teoreticy po výběru N prvů zbude 0,368.N prvů na testování Tento postup zopaujeme M-rát, poaždé jinou N-tici prvů, taže modely nebudeme trénovat na stejných datech Učení modelu pa vypadá ta, že vždy vybereme náhodně s opaováním N prvů, naučíme model a uložíme jeho nastavení. Máme ta na onci M různě nastavených modelů stejného typu. 6
7 Bagging - predice máme novou instanci x pro aždý z M modelů urči třídu, do teré má být prve lasifiován vrať třídu, terá byla nejčastěji prediována, dílčí modely jsou tedy rovnocené (C je počet tříd) G bagging x i1... C x v případě regrese vrať průměrnou výstupní hodnotu f bagging x arg max 1 M M j1 M j1 f j f j x? Popiš princip a vlastnosti baggingu (v čem spočívá diverzifiace) 7
8 Bagging vlastnosti, použití použití v případě nedostatu dat zvyšuje stabilitu a přesnost (snižuje varianci a rizio přeučení) typicá apliace na nestabilní modely (např. rozhodovací stromy, NN) předností RS je jejich interpretovatelnost, terá se vša použitím baggingu ztrácí nepoužívá se na lineární (velý bias, silná generalizace) a robustní (IBL) modely nemá efet existuje i váhová varianta MetaCost (poud výstupy modelu mají pravděpodobnostní charater Bayes, NN) 8
9 Stacing záladní rysy učíme model, terý ombinuje libovolné typy modelů nižší úrovně na vyšší úrovni učíme zpravidla jednoduchý (např. lineární) model je výhodné, dyž model nižší úrovně romě predice udává taé míru důvěryhodnosti své predice (logitový model, NN, Bayes, ) trénovacích data určena výběrem typu Cross-Valiadation, což je výpočetně náročné variantou je označení dílčích modelů váhou w i, terou je násobena predice aždého modelu nižší úrovně modely nižší úrovně, úroveň 0, jsou učeny vždy na záladě stejné množiny trénovacích dat, jejich predicí na testovacích datech zísáme vstupní hodnoty do modelu úrovně 1 (metalearner). Jeho strutura je jednoduchá (lineární, RS). Počet vstupů do meta-modelu odpovídá počtu modelů úrovně 0, nebo jeho násobu počtem tříd (dyž je výstupem nižšího modelů pravděpodobnost lasifiace do aždé ze tříd) V čem spočívá diverzifiace stacingu? 9
10 Stacing varianta s výpočtem vah cílem je nastavit váhy w i pro M modelů f i nižší úrovně ta, aby byla minimalizována chyba LF od požadovaného výsledu test představuje množinu testovacích dat. Zápis f -t znamená model nastavený na záladě trénovacích dat (bez t testovacích), x +t testovací data, test počet dělení pomocí Cross-Validation w arg min w test LF y t M t1 j1, w j f t j x t ideálně jsou váhy nastaveny ta, aby jejich součet byl roven 1 10
11 Boosting idea nejpoužívanější metoda meta-learningu smyslem je vytvoření více modelů stejného typu, jejichž přesnost stačí lepší než náhodná, tzv. wea learner (více než 50% úspěšně lasifiovaných prvů) princip diverzifiace metody spočívá v tom, že jsou postupně vytvářeny modely více specializované na trénovací data, terá model předešlý lasifioval chybně různé algoritmy se liší způsobem, jaým zvyšují význam trénovacích dat, terá nebyla v předešlých modelech rozpoznána předpolad je, že více jednoduchých modelů poryje přesněji prostor možných řešení V čem spočívá diverzifiace boostingu? 11
12 Boosting bez váhy (ostraňuje data) původní idea nepoužívá vah, jedinou diverzifiací je cílený výběr trénovacích prvů podle úspěšnosti lasifiace předešlých modelů na první model je použito např. N/3 dat výběrem bez opaování, z nich nastaven první model f 1 s přesností lepší než 50% další model f 2 je nastaven z dat, terá model f 1 lasifiuje chybně a z dalších dosud nepoužitých dat ta lze poračovat do vyčerpání trénovací množiny lasifiace pa probíhá jao hlasování naučených modelů není jasně definováno, jaým způsobem jsou data vybírána, respetive není důaz o tom, jaý způsob je nejlepší (výběry jsou vša vždy bez opaování) 12
13 Boosting bez váhy přílad 13
14 Boosting s váhou (aždý prve má váhu) tato verze počítá s váhami jednotlivých záznamů model je vždy trénován na všechna trénovací data, avša chybu lasifiace jednoho prvu ovlivňuje jeho váha (poud ho předešlé modely vždy poznaly, má na chybu menší vliv) obecně se tento postup stále více specializuje na problémové prvy a vede větší chybě dílčího modelu (nově vytvořeného) dále je aždému vytvořenému modelu na záladě jeho přesnosti přidělena váha modelu, terá určuje jeho vliv na onečnou lasifiaci modifiací je výběr nových trénovacích prvů s opaováním podle jejich pravděpodobnosti odvozené z veliosti váhy w 14
15 Boosting celová chyba modelu s přibývajícím počtem modelů se jejich dílčí chyba zvětšuje (zelená), ale celová chyba ja na trénovacích (černá) ta na testovacích datech se zmenšuje? Proč se u Boostingu s rostoucí iterací dílčí trénovací chyba modelů zhoršuje 15
16 AdaBoost princip AdaBoost významný boostingový algoritmus dáno N záznamů x,y váha aždého prvu W 1 (i)=1/n, de i=1..n opauj -rát nauč model C z dat s ohledem na váhy W (i) z chyby E modelu C vypočti váhu modelu vytvoř W +1 ta, že zvětšena váha chybně lasifiovaných, oslabena dobře lasifiovaných záznamů vytvořen lasifiátor tvořený modely? popište princip algoritmu AdaBoost 16
17 Boosting záladní algoritmus (binární lasifiace) Algoritmus učení nastav stejné váhy všem N prvům, =1 (index iterace), opauj: nauč model s ohledem na váhy W prvů vypočti chybu modelu E na všech trénovacích datech E N i1 W i LFy, C ( x ) i onec dyž E =0 nebo E >=0,5 (horší než náhodný) přepočti W všech prvů a spočti pro tento model, =+1 W 1 i W i E 1 E 1 i chybná lasifiace správnálasifiace W 1 i W W 1 i i 1 E log 1 E 1 E log E? Vysytuje se v algoritmu boosting resubstituční chyba 17
18 AdaBoost omentáře algoritmu Poznáma Kódování tříd 1 / +1 Odhad chyby modelu protože se počítá přes trénovací data, jedná se o chybu resubstituční (byť je model učen na datech váhovaných) Váha dílčího lasifiátoru je váha lasifiátoru C Konečná lasifiace E N i1 W i LFy, C ( x ) i i G x sign M i1 C i i x 18
19 AdaBoost - vlastnosti AdaBoost reduuje trénovací chybu exponenciálně v závislosti na rostoucím počtu max v hlasující supině. poud aždý z lasifiátorů ve supině dává lepší výsledy než náhodné, váhové rozhodnutí celé supiny zaručuje poles chyby na trénovacích datech velmi často dochází podobnému polesu i na testovacích datech pozor, algoritmus je možné přeučit (odvíjí se zejména od přílišné složitosti dílčích modelů) Occamovo ostří identicá chyba boosting modelů, druhý vša z více modelů empiricy zjištěno, že je na testovacích datech přesnější; není v rozporu, viz. hranice (meze) u separace optimální nadrovinou respetive modely nejsou ve sutečnosti identicé 19
20 AdaBoost přílad binární lasifiace 10 vstupních veličin všechny mají normální rozložení trénovacích testovacích sledujeme chybu na testovacích datech (test error) 20
21 Hlavní charateristiy 1/2 Bagging trénovacích dat N, náhodným výběrem s opaováním M trénovacích množin, použití dyž máme málo dat a nestabilní preditor (RS, NN) M modelů stejného typu naučené z M trénovacích výběrů diverzifiace různými trénovacími množinami jednotlivé modely jsou rovnocené, rozhoduje nejčastější výslede (lasifiace) nebo průměr (regrese) Stacing použití dělení dat typu Cross-Validation modely různého typu naučené vždy ze stejných trénovacích dat diverzifiace různými algoritmy aždý model má svou váhu (míru důvěry ve svou predici) 21
22 Hlavní charateristiy 2/2 Boosting trénovací data váhována, posilování chybně prediovaných záznamů použití M modelů stejného typu diverzifiaci tvoří postupně se měnící váhy trénovacích dat v závislosti na tom, ja úspěšně jsou lasifiovány jednotlivými modely lasifiace probíhá na záladě hlasování jednotlivých modelů; je brána v potaz váha aždého modelu VIS charaterizuj hlavní rysy aždé z metod 22
Obsah přednášky Jaká asi bude chyba modelu na nových datech?
Obsah přednášky Jaká asi bude chyba modelu na nových datech? Chyba modelu Bootstrap Cross Validation Vapnik-Chervonenkisova dimenze 2 Chyba skutečná a trénovací Máme 30 záznamů, rozhodli jsme se na jejich
Shluková analýza, Hierarchické, Nehierarchické, Optimum, Dodatek. Učení bez učitele
1 Obsah přednášy 1. Shluová analýza 2. Podobnost objetů 3. Hierarchicé shluování 4. Nehierarchicé shluování 5. Optimální počet shluů 6. Další metody 2 Učení bez učitele není dána výstupní lasifiace (veličina
(iv) D - vybíráme 2 koule a ty mají různou barvu.
2 cvičení - pravděpodobnost 2102018 18cv2tex Definice pojmů a záladní vzorce Vlastnosti pravděpodobnosti Pravděpodobnost P splňuje pro libovolné jevy A a B následující vlastnosti: 1 0, 1 2 P (0) = 0, P
Základním pojmem v kombinatorice je pojem (k-prvková) skupina, nebo také k-tice prvků, kde k je přirozené číslo.
přednáša KOMBINATORIKA Při řešení mnoha praticých problémů se setáváme s úlohami, ve terých utváříme supiny z prvů nějaé onečné množiny Napřílad máme sestavit rozvrh hodin z daných předmětů, potřebujeme
Kombinace s opakováním
9..3 Kombinace s opaováním Předpolady: 907. 908, 9, 92 Pedagogicá poznáma: Tato hodina zabere opět minimálně 70 minut. Asi ji čeá rozšíření na dvě hodiny. Netradiční začáte. Nemáme žádné přílady, ale rovnou
Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma
Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky
MULTIKRITERIÁLNÍ ROZHODOVÁNÍ VEKTOROVÁ OPTIMALIZACE
OPTIMALIZACE A ROZHODOVÁNÍ V DOPRAVĚ část druhá Přednáša 5 PŘEDNÁŠKA 5 MULTIKRITERIÁLNÍ ROZHODOVÁNÍ VEKTOROVÁ OPTIMALIZACE OPTIMALIZACE A ROZHODOVÁNÍ V DOPRAVĚ část druhá Přednáša 5 Multiriteriální rozhodování
Kombinace s opakováním
9..3 Kombinace s opaováním Předpolady: 907. 908, 9, 92 Pedagogicá poznáma: Časová náročnost této hodiny je podobná hodině předchozí. Netradiční začáte. Nemáme žádné přílady, ale rovnou definici. Definice
7.3.9 Směrnicový tvar rovnice přímky
7.3.9 Směrnicový tvar rovnice přímy Předpolady: 7306 Pedagogicá poznáma: Stává se, že v hodině nestihneme poslední část s určováním vztahu mezi směrnicemi olmých příme. Vrátíme se obecné rovnici přímy:
6 5 = 0, = 0, = 0, = 0, 0032
III. Opaované pousy, Bernoulliho nerovnost. Házíme pětrát hrací ostou a sledujeme výsyt šesty. Spočtěte pravděpodobnosti možných výsledů a určete, terý má největší pravděpodobnost. Řešení: Jedná se o serii
1.5.7 Prvočísla a složená čísla
17 Prvočísla a složená čísla Předpolady: 103, 106 Dnes bez alulačy Číslo 1 je dělitelné čísly 1,, 3,, 6 a 1 Množinu, terou tvoří právě tato čísla, nazýváme D 1 množina dělitelů čísla 1, značíme ( ) Platí:
6. Měření Youngova modulu pružnosti v tahu a ve smyku
6. Měření Youngova modulu pružnosti v tahu a ve smyu Úol : Určete Youngův modul pružnosti drátu metodou přímou (z protažení drátu). Prostudujte doporučenou literaturu: BROŽ, J. Zálady fyziálních měření..
Vytěžování znalostí z dat
Vytěžování znalostí z dat Department of Computer Systems Faculty of Information Technology Czech Technical University in Prague Přednáška 5: Hodnocení kvality modelu BI-VZD, 09/2011 MI-POA Evropský sociální
Hodnocení přesnosti výsledků z metody FMECA
Hodnocení přesnosti výsledů z metody FMECA Josef Chudoba 1. Úvod Metoda FMECA je semivantitativní metoda, pomocí teré se identifiují poruchy s významnými důsledy ovlivňující funci systému. Závažnost následů
Vytěžování znalostí z dat
Pavel Kordík (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 11 1/31 Vytěžování znalostí z dat Pavel Kordík Department of Computer Systems Faculty of Information Technology Czech Technical
Příklady: - počet členů dané domácnosti - počet zákazníků ve frontě - počet pokusů do padnutí čísla šest - životnost televizoru - věk člověka
Náhodná veličina Náhodnou veličinou nazýváme veličinu, terá s určitými p-stmi nabývá reálných hodnot jednoznačně přiřazených výsledům příslušných náhodných pousů Náhodné veličiny obvyle dělíme na dva záladní
7.3.9 Směrnicový tvar rovnice přímky
739 Směrnicový tvar rovnice přímy Předpolady: 7306 Pedagogicá poznáma: Stává se, že v hodině nestihneme poslední část s určováním vztahu mezi směrnicemi olmých příme Vrátíme se obecné rovnici přímy: Obecná
4. Přednáška: Kvazi-Newtonovské metody:
4 Přednáša: Kvazi-Newtonovsé metody: Metody s proměnnou metriou, modifiace Newtonovy metody Efetivní pro menší úlohy s hustou Hessovou maticí Newtonova metoda (opaování): f aproximujeme loálně vadraticou
1. KOMBINATORIKA. Příklad 1.1: Mějme množinu A a. f) uspořádaných pětic množiny B a. Řešení: a)
1. KOMBINATORIKA Kombinatoria je obor matematiy, terý zoumá supiny prvů vybíraných z jisté záladní množiny. Tyto supiny dělíme jedna podle toho, zda u nich záleží nebo nezáleží na pořadí zastoupených prvů
KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC
Přednáša 04 Přírodovědecá faulta Katedra matematiy KMA/P506 Pravděpodobnost a statistia KMA/P507 Statistia na PC jiri.cihlar@ujep.cz Záon velých čísel Lemma Nechť náhodná veličina nabývá pouze nezáporných
PRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Číselné charateristiy náhodných proměnných Charateristiy náhodných proměnných dělíme nejčastěji na charateristiy polohy a variability. Mezi charateristiy polohy se nejčastěji
Kombinování klasifikátorů Ensamble based systems
Kombinování klasifikátorů Ensamble based systems Rozhodování z více hledisek V běžném životě se často snažíme získat názor více expertů, než přijmeme závažné rozhodnutí: Před operací se radíme s více lékaři
Základním pojmem v kombinatorice je pojem (k-prvková) skupina, nebo také k-tice prvků, kde k je přirozené číslo.
přednáša KOMBINATORIKA Kombinatoria je obor matematiy, terý se zabývá uspořádáním daných prvů podle určitých pravidel do určitých supin Záladním pojmem v ombinatorice je pojem (-prvová) supina, nebo taé
Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti
Vytěžování Dat Přednáška 12 Kombinování modelů Miroslav Čepek Pavel Kordík a Jan Černý (FIT) Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL)
4 všechny koeficienty jsou záporné, nedochází k žádné změně. Rovnice tedy záporné reálné kořeny nemá.
Přílad 1. Řešte v R rovnici x 4x + x 4 0. Výslede vypočtěte s přesností alespoň 0,07. 1) Reálné ořeny rovnice budou ležet v intervalu ( 5,5), protože největší z oeficientů polynomu bez ohledu na znaméno
NUMP403 (Pravděpodobnost a Matematická statistika I)
NUMP0 (Pravděpodobnost a Matematicá statistia I Střední hodnota disrétního rozdělení. V apce máte jednu desetiorunu, dvě dvacetioruny a jednu padesátiorunu. Zloděj Vám z apsy náhodně vybere tři mince.
Strojové učení Marta Vomlelová
Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer
Klasifikace a rozpoznávání. Umělé neuronové sítě a Support Vector Machines
Klasifiace a rozpoznávání Umělé neuronové sítě a Support Vector Machines x 1 x 2 w 1 w 2 Lineární lasifiátory a y = f ( w T x+b) Σ f(.) y b Nevýhoda: pouze lineární rozhodovací hranice Možné řešení: Použít
Metoda konjugovaných gradientů
0 Metoda onjugovaných gradientů Ludě Kučera MFF UK 11. ledna 2017 V tomto textu je popsáno, ja metodou onjugovaných gradientů řešit soustavu lineárních rovnic Ax = b, de b je daný vetor a A je symetricá
O kurzu MSTU Témata probíraná v MSTU
O kurzu MSTU Témata probíraná v MSTU 1.: Úvod do STU. Základní dělení, paradigmata. 2.: Základy statistiky. Charakteristiky, rozložení, testy. 3.: Modely: rozhodovací stromy. 4.: Modely: učení založené
Mocnost bodu ke kružnici
3.. ocnost bodu e ružnici Předpolady: 03009 Př. : Je dána ružnice a bod, ležící vně ružnice. Veď bodem dvě různé sečny ružnice p a p. Průsečíy sečny p s ružnicí označ A, B. Průsečíy sečny p s ružnicí označ
Mocnost bodu ke kružnici
3..0 ocnost bodu e ružnici Předpolady: 309 Př. : Je dána ružnice a bod, ležící vně ružnice. Veď bodem dvě různé sečny ružnice p a p. Průsečíy sečny p,. Průsečíy sečny p,. Změř potřebné vzdálenosti a spočti
Měření indukčností cívek
7..00 Ṫeorie eletromagneticého pole Měření indučností cíve.......... Petr Česá, studijní supina 05 Letní semestr 000/00 . Měření indučností cíve Měření vlastní a vzájemné indučnosti válcových cíve ZAÁNÍ
f (k) (x 0 ) (x x 0 ) k, x (x 0 r, x 0 + r). k! f(x) = k=1 Řada se nazývá Taylorovou řadou funkce f v bodě x 0. Přehled některých Taylorových řad.
8. Taylorova řada. V urzu matematiy jsme uázali, že je možné funci f, terá má v oolí bodu x derivace aproximovat polynomem, jehož derivace se shodují s derivacemi aproximované funce v bodě x. Poud má funce
3.3.4 Thaletova věta. Předpoklady:
3.3.4 Thaletova věta Předpolady: 030303 Př. : Narýsuj ružnici ( ;5cm) a její průměr. Na ružnici narýsuj libovolný bod různý od bodů, (bod zvol jina než soused v lavici). Narýsuj trojúhelní. Má nějaou speciální
MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU
Úloha č 5 MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU ÚKOL MĚŘENÍ: Určete moment setrvačnosti ruhové a obdélníové desy vzhledem jednotlivým osám z doby yvu Vypočtěte moment setrvačnosti ruhové a obdélníové
METODICKÉ LISTY Z MATEMATIKY pro gymnázia a základní vzdělávání
METODICKÉ LISTY Z MATEMATIKY pro gymnázia a záladní vzdělávání Jaroslav Švrče a oletiv Rámcový vzdělávací program pro gymnázia Vzdělávací oblast: Matematia a její apliace Tematicý oruh: Práce s daty ombinatoria
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT RNDr. Eva Janoušová INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ HODNOCENÍ ÚSPĚŠNOSTI KLASIFIKACE A SROVNÁNÍ KLASIFIKÁTORŮ ÚVOD Vstupní data Subjekt Objem hipokampu Objem komor Skutečnost
1. Úvod do základních pojmů teorie pravděpodobnosti
1. Úvod do záladních pojmů teore pravděpodobnost 1.1 Úvodní pojmy Většna exatních věd zobrazuje své výsledy rgorózně tj. výsledy jsou zísávány na záladě přesných formulí a jsou jejch nterpretací. em je
Binomická věta
97 Binomicá věta Předpolady: 96 Kdysi dávno v prvním ročníu jsme se učili vzorce na umocňování dvojčlenu Př : V tabulce jsou vypsány vzorce pro umocňování dvojčlenu Najdi podobnost s jinou dosud probíranou
Dynamika populací s oddělenými generacemi
Dynamia populací s oddělenými generacemi Tento text chce představit nejjednodušší disrétní deterministicé dynamicé modely populací. Deterministicé nebudeme uvažovat náhodné vlivy na populace působící nebo
Reprezentace přirozených čísel ve Fibonacciho soustavě František Maňák, FJFI ČVUT, 2005
Reprezentace přirozených čísel ve ibonacciho soustavě rantiše Maňá, JI ČVUT, 2005 Úvod Ja víme, přirozená čísla lze vyádřit různými způsoby Nečastěi zápisu čísel používáme soustavu desítovou, ale umíme
Úvod do Kalmanova filtru
Kalmanův filtr = odhadovač stavu systému Úvod do Kalmanova filtru KF dává dohromady model systému a měření. Model systému použije tomu, aby odhadl, ja bude stav vypadat a poté stav porovná se sutečným
Motivace. Náhodný pokus, náhodný n jev. pravděpodobnost. podobnostní charakteristiky diagnostických testů, Bayesův vzorec. Prof.RND. RND.
Pravděpodobnostn podobnostní charateristiy diagnosticých testů, Bayesův vzorec Prof.RND RND.Jana Zvárov rová,, DrSc. Náhodný pous, náhodný n jev Náhodný pous: výslede není jednoznačně určen podmínami,
Testování hypotéz. December 10, 2008
Testování hypotéz December, 2008 (Testování hypotéz o neznámé pravděpodobnosti) Jan a Františe mají pytlíy s uličami. Jan má 80 bílých a 20 červených, Františe má 30 bílých a 70 červených. Vybereme náhodně
1 Gaussova kvadratura
Cvičení - zadání a řešení úloh Zálady numericé matematiy - NMNM0 Verze z 7. prosince 08 Gaussova vadratura Fat, že pro něterá rovnoměrná rozložení uzlů dostáváme přesnost o stupeň vyšší napovídá, že pro
Instance based learning
Učení založené na instancích Instance based learning Charakteristika IBL (nejbližších sousedů) Tyto metody nepředpokládají určitý model nejsou strukturované a typicky nejsou příliš užitečné pro porozumění
Statistická analýza dat
Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte
2. STAVBA PARTPROGRAMU
Stavba partprogramu 2 2. STAVBA PARTPROGRAMU 2.1 Slovo partprogramu 2.1.1 Stavba slova Elementárním stavebním prvem partprogramu je tzv. slovo (instruce programu). Každé slovo sestává z písmene adresy
MATEMATIKA II V PŘÍKLADECH
VYSOKÁ ŠKOL BÁŇSKÁ TECHICKÁ UIVERZIT OSTRV FKULT STROJÍ MTEMTIK II V PŘÍKLDECH CVIČEÍ Č 0 Ing Petra Schreiberová, PhD Ostrava 0 Ing Petra Schreiberová, PhD Vysoá šola báňsá Technicá univerzita Ostrava
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ ÚSTAV AUTOMATIZACE A MĚŘÍCÍ TECHNIKY FACULTY OF ELECTRICAL ENGINEERING AND COMMUNICATION
Fyzikální praktikum č.: 1
Datum: 5.5.2005 Fyziální pratium č.: 1 ypracoval: Tomáš Henych Název: Studium činnosti fotonásobiče Úol: 1. Stanovte závislost oeficientu seundární emise na napětí mezi dynodami. yneste do grafu závislost
Reciprokou funkci znáte ze základní školy pod označením nepřímá úměra.
@091 7. Reciproá funce Reciproou funci znáte ze záladní šoly pod označením nepřímá úměra. Definice: Reciproá funce je dána předpisem ( 0 je reálné číslo) f : y R \ {0} A) Definiční obor funce: Je třeba
9 Stupně vrcholů, Věta Havla-Hakimiho
Typicé přílady pro zápočtové písemy DiM 470-301 (Kovář, Kovářová, Kubesa) (verze: November 5, 018) 1 9 Stupně vrcholů, Věta Havla-Haimiho 9.1. Doážete nareslit graf na 9 vrcholech, ve terém mají aždé dva
Geometrická zobrazení
Pomocný text Geometricá zobrazení hodná zobrazení hodná zobrazení patří nejjednodušším zobrazením na rovině. Je jich vša hrozně málo a často se stává, že musíme sáhnout i po jiných, nědy výrazně složitějších
zpracování signálů - Fourierova transformace, FFT Frekvenční
Digitální zpracování signálů - Fourierova transformace, FF Frevenční analýza 3. přednáša Jean Baptiste Joseph Fourier (768-830) Zálady experimentální mechaniy Frevenční analýza Proč se frevenční analýza
Analýza a zpracování signálů. 5. Z-transformace
nalýa a pracování signálů 5. Z-transformace Z-tranformace je mocný nástroj použitelný pro analýu lineárních discretetime systémů Oboustranná Z-transformace X j F j x, je omplexní číslo r e r e Oboustranná
Pravděpodobnost a statistika
Pravděpodobnost a statistia Přílady a otázy Petr Hebá a Hana Salsá GAUDEAMUS 2011 Autoři: prof. Ing. Petr Hebá, CSc. Autoři: prof. RNDr. Hana Salsá, CSc. Recenzenti: doc. RNDr. Tatiana Gavalcová, CSc.
Andrew Kozlík KA MFF UK
Operační režimy (módy) bloových šifer Andrew Kozlí KA MFF UK Operační režimy (módy) bloových šifer Říáme, že šifra (P, C, K,, D) je bloová, jestliže P = C = {0, 1} b pro nějaé b. Napřílad DS (b = 64 bitů)
GENETICKÉ UČENÍ NEURONOVÝCH SÍTÍ GENETIC LEARNING OF NEURAL NETWORKS. Roman Biskup, Anna Čermáková
GENETICKÉ UČENÍ NEURONOVÝCH SÍTÍ GENETIC LEARNING OF NEURAL NETWORKS Roman Bisup, Anna Čermáová Anotace: Příspěve se zabývá prezentací principů učení jednoho onrétního typu neuronových sítí. Cílem práce
Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.
Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační
Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005
Rozpoznávání písmen Jiří Šejnoha Rudolf Kadlec (c) 2005 Osnova Motivace Popis problému Povaha dat Neuronová síť Architektura Výsledky Zhodnocení a závěr Popis problému Jedná se o praktický problém, kdy
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
Kybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat
Zkouška ISR 2013 přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat 1. Rozdílné principy u induktivního a deduktivního
Vytěžování znalostí z dat
Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2011, Cvičení 9 1/16 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information
χ 2 testy. Test nekorelovanosti.
χ 2 testy. Test neorelovanosti. Petr Poší Části doumentu jsou převzaty (i doslovně) z Miro Navara: Pravděpodobnost a matematicá statistia, https://cw.fel.cvut.cz/lib/exe/fetch.php/courses/a6m33ssl/pms_print.pdf
1.3.5 Kružnice, kruh. Předpoklady: Narýsuj bod S. Kružítkem narýsuj kružnici se středem v bodu S a poloměrem 3 cm.
1.3.5 Kružnice, ruh Předpolady: 010304 Př. 1: Narýsuj bod. Kružítem narýsuj ružnici se středem v bodu a poloměrem 3 cm. tejně jao přímy označujeme ružnice malým písmenem (většinou začínáme písmenem ;3cm,
Budeme pokračovat v nahrazování funkce f(x) v okolí bodu a polynomy, tj. hledat vhodné konstanty c n tak, aby bylo pro malá x a. = f (a), f(x) f(a)
Předáša 7 Derivace a difereciály vyšších řádů Budeme poračovat v ahrazováí fuce f(x v oolí bodu a polyomy, tj hledat vhodé ostaty c ta, aby bylo pro malá x a f(x c 0 + c 1 (x a + c 2 (x a 2 + c 3 (x a
Pravděpodobně skoro správné. PAC učení 1
Pravděpodobně skoro správné (PAC) učení PAC učení 1 Výpočetní teorie strojového učení Věta o ošklivém kačátku. Nechť E je klasifikovaná trénovací množina pro koncept K, který tvoří podmnožinu konečného
Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?
Testování modelů a jejich výsledků Jak moc můžeme věřit tomu, co jsme se naučili? Osnova Úvod Trénovací, Testovací a Validační datové soubory Práce s nebalancovanými daty; ladění parametrů Křížová validace
( ) Příklady na otočení. Předpoklady: Př. 1: Je dána kružnice k ( S ;5cm)
3.5.9 Přílady na otočení Předpolady: 3508 Př. 1: Je dána ružnice ( ;5cm), na teré leží body, '. Vně ružnice leží bod L, uvnitř ružnice bod M. Naresli obrazy bodů L, M v zobrazení řeš bez úhloměru. R (
Statistická teorie učení
Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální
Buckinghamův Π-teorém (viz Barenblatt, Scaling, 2003)
Bucinghamův Π-teorém (viz Barenblatt, Scaling, 2003) Formalizace rozměrové analýzy ( výsledné jednoty na obou stranách musí souhlasit ). Rozměr fyziální veličiny Mějme nějaou třídu jednote, napřílad [(g,
České vysoké učení technické v Praze Fakulta biomedicínského inženýrství
Česé vysoé učení technicé v Praze Faulta biomedicínsého inženýrství Úloha KA03/č. 3: Měření routícího momentu Ing. Patri Kutíle, Ph.D., Ing. Adam Žiža (utile@bmi.cvut.cz, ziza@bmi.cvut.cz) Poděování: Tato
PRVOČÍSLA 1 Jan Malý UK v Praze a UJEP v Ústí n. L. Obsah
PRVOČÍSLA Jan Malý UK v Praze a UJEP v Ústí n. L. Obsah. Elementární úlohy o prvočíslech 2. Kongruence 2 3. Algebraicé rovnice a polynomy 3 4. Binomicá a trinomicá věta 5 5. Malá Fermatova věta 7 6. Diferenční
Alternativní rozdělení. Alternativní rozdělení. Binomické rozdělení. Binomické rozdělení
Alternativní rozdělení Alternativní rozdělení Alternativní rozdělení Alternativní rozdělení Náhodná veličina X má alternativní rozdělení s parametrem p, jestliže nabývá hodnot 0 a 1 s pravděpodobnostmi
Příloha č. 1 Část II. Ekonomika systému IDS JMK
Příloha č. 1 Část II. Eonomia systému IDS JMK Květen 2011 Eonomia systému IDS JMK I. EKONOMICKÉ JEDNOTKY Pro účely dělení výnosů je rozděleno území IDS JMK do eonomicých jednote tvořených supinami tarifních
3. Vícevrstvé dopředné sítě
3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze
20 - Číslicové a diskrétní řízení
20 - Číslicové a disrétní řízení Michael Šebe Automaticé řízení 2018 18-4-18 Automaticé řízení - Kybernetia a robotia Analogové a číslicové řízení Proč číslicově? Snadno se přeprogramuje (srovnej s výměnou
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
THE POSSIBILITY OF RELOCATION WAREHOUSES IN CZECH-POLISH BORDER MOŽNOSTI RELOKACE SKLADŮ V ČESKO-POLSKÉM PŘÍHRANIČÍ
Jan CHOCHOLÁČ 1 THE POSSIBILITY OF RELOCATION WAREHOUSES IN CZECH-POLISH BORDER MOŽNOSTI RELOKACE SKLADŮ V ČESKO-POLSKÉM PŘÍHRANIČÍ BIO NOTE Jan CHOCHOLÁČ Asistent na Katedře dopravního managementu, maretingu
Testování modelů a jejich výsledků. tomu, co jsme se naučili?
Testování modelů a jejich výsledků Jak moc můžeme věřit tomu, co jsme se naučili? Osnova Úvod Trénovací, Testovací a Validační datové soubory Práce s nebalancovanými daty; ladění parametrů Křížová validace
MOMENT SETRVAČNOSTI. Obecná část Pomocí Newtonova pohybového zákona síly můžeme odvodit pohybovou rovnici pro rotační pohyb:
MOMENT SETRVAČNOST Obecná část Pomocí Newtonova pohybového záona síly můžeme odvodit pohybovou rovnici pro rotační pohyb: dω M = = ε, (1) d t de M je moment vnější síly působící na těleso, ω úhlová rychlost,
Moderní systémy pro získávání znalostí z informací a dat
Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:
Konstrukce trojúhelníků II
.7.0 Konstruce trojúhelníů II Předpolady: 00709 Minulá hodina: Tři věty o shodnosti (odpovídají jednoznačným postupům pro onstruci trojúhelníu): Věta sss: Shodují-li se dva trojúhelníy ve všech třech stranách,
Rozdělování dat do trénovacích a testovacích množin
Rozdělování dat do trénovacích a testovacích množin Marcel Jiřina Rozpoznávání je důležitou metodou při zpracování reálných úloh. Rozpoznávání je definováno dvěma kroky a to pořízením dat o reálném rozpoznávaném
Strojové učení Marta Vomlelová
Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer
pracovní verze pren 13474 "Glass in Building", v níž je uveden postup výpočtu
POROVNÁNÍ ANALYTICKÉHO A NUMERICKÉHO VÝPOČTU NOSNÉ KONSTRUKCE ZE SKLA Horčičová I., Netušil M., Eliášová M. Česé vysoé učení technicé v Praze, faulta stavební Anotace Slo se v moderní architetuře stále
Návrh vysokofrekvenčních linkových transformátorů
inové transformátory inové transformátory Při požadavu na transformaci impedancí v široém frevenčním pásmu, dy nelze obsáhnout požadovanou oblast mitočtů ani široopásmovými obvody, je třeba použít široopásmových
ANOVA. Analýza rozptylu při jednoduchém třídění. Jana Vránová, 3.lékařská fakulta UK, Praha
ANOVA Analýza rozptylu př jednoduchém třídění Jana Vránová, 3.léařsá faulta UK, Praha Teore Máme nezávslých výběrů, > Mají rozsahy n, teré obecně nemusí být stejné V aždém z nch známe průměr a rozptyl
Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1
Logistická regrese Menu: QCExpert Regrese Logistická Modul Logistická regrese umožňuje analýzu dat, kdy odezva je binární, nebo frekvenční veličina vyjádřená hodnotami 0 nebo 1, případně poměry v intervalu
MOMENT SETRVAČNOSTI. Obecná část Pomocí Newtonova pohybového zákona síly můžeme odvodit pohybovou rovnici pro rotační pohyb:
MOMENT SETRVAČNOST Obecná část Pomocí Newtonova pohybového záona síly můžeme odvodit pohybovou rovnici pro rotační pohyb: dω M = = ε, (1) d t de M je moment vnější síly působící na těleso, ω úhlová rychlost,
7. TRANSFORMÁTORY. 7.1 Štítkové údaje. 7.2 Měření odporů vinutí. 7.3 Měření naprázdno
7. TRANSFORMÁTORY Pro zjednodušení budeme měření provádět na jednofázovém transformátoru. Na trojfázovém transformátoru provedeme pouze ontrolu jeho zapojení měřením hodinových úhlů. 7.1 Štítové údaje
Základy vytěžování dat
Základy vytěžování dat předmět A7Bb36vyd Vytěžování dat Filip Železný, Miroslav Čepek, Radomír Černoch, Jan Hrdlička katedra kybernetiky a katedra počítačů ČVUT v Praze, FEL Evropský sociální fond Praha
Využití expertního systému při odhadu vlastností výrobků
Vužití epertního sstému při odhadu vlastností výrobů ibor Žá Abstrat. Článe se zabývá možností ja vužít fuzz epertní sstém pro popis vlastností výrobu. Důvodem tohoto přístupu je možnost vužití vágních
Pokročilé neparametrické metody. Klára Kubošová
Pokročilé neparametrické metody Klára Kubošová Klasifikační a regresní lesy Pokročilé neparametrické metody Klasifikační a regresní lesy Klasifikační les Klasifikační les je klasifikační model vytvořený
3. Mocninné a Taylorovy řady
3. Mocninné a Taylorovy řady A. Záladní pojmy. Obor onvergence Mocninné řady jsou nejjednodušším speciálním případem funčních řad. Jsou to funční řady, jejichž členy jsou mocninné funce. V této apitole
Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?
Testování modelů a jejich výsledků Jak moc můžeme věřit tomu, co jsme se naučili? 2 Osnova Úvod různé klasifikační modely a jejich kvalita Hodnotící míry (kriteria kvality) pro zvolený model. Postup vyhodnocování
Aplikovaná informatika. Podklady předmětu Aplikovaná informatika pro akademický rok 2013/2014 Radim Farana. Obsah. Detekce chyb
Podlady předmětu pro aademicý ro /4 Radim Farana Obsa Detece cyb, Hamminoa dálenost Kontrolní a samooprané ódy Lineární ódy Hamminoy ódy Opaoací ódy Cylicé ódy Detece cyb Množinu šec slo rodělíme na sloa