Obsah přednášky. 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacking 5. Boosting 6. Shrnutí

Rozměr: px
Začít zobrazení ze stránky:

Download "Obsah přednášky. 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacking 5. Boosting 6. Shrnutí"

Transkript

1 1

2 Obsah přednášy 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacing 5. Boosting 6. Shrnutí 2

3 Meta learning = Ensemble methods Cíl použít predici ombinaci více různých modelů Meta learning (meta učení) ombinování více modelů metaznalost znalost o znalosti Záladní parametry (co musíme určit?) ja použijeme (rozdělíme) trénovací data jaé typy modelů ombinujeme ja ve výsledu lasifiujeme? Co je cílem meta-learningu? 3

4 Bumping cesta meta-learningu metoda využívající pouze jeden model, terý je ale vybraný z více modelů naučených na jedněch trénovacích datech z trénovacích dat o N prvcích je vytvořeno M trénovacích množin náhodným výběrem s opaováním o N prvcích (metoda bootstrap) použití poud je málo dat chyba modelu je spočtena ze všech trénovacích dat a na jejím záladě jsou vybrány nejlepší parametry modelu b z M vytvořených modelů b... b výsledy na nových testovacích datech doládají, že tento způsob vede výběru lepšího modelu než při výpočtu ze všech trénovacích dat (zejména robustní vůči uvíznutí v loálních extrémech) b arg min b N i j 1 M 1 LF y, i f b j, x i 4

5 Bagging idea Bagging = bootstrap aggregating Vytvořím z trénovacích dat M množin metodou bootstrap tedy výběr s opaováním Z dat naučím M modelů stejného typu (např. rozhodovacích stromů) Při lasifiaci nechám M modelů hlasovat o onečné predici, všechny modely jsou si rovnocené (mají stejnou váhu) vede e zpřesnění (a stabilizaci) predice, zhoršení pozorována jen ve výjimečných případech princip metody založen na teorii bias-variance deompozice 5

6 Bagging tvorba modelu máme N trénovacích dat, vybereme z nich náhodně výběrem s opaováním N instancí jao v metodě bootsrap pravděpodobnost výběru jednoho příladu je 1/N při výběru N prvů je pravděpodobnost, že jeden onrétní nebude ve výběru N 1 N N N 1 0,368 e teoreticy po výběru N prvů zbude 0,368.N prvů na testování Tento postup zopaujeme M-rát, poaždé jinou N-tici prvů, taže modely nebudeme trénovat na stejných datech Učení modelu pa vypadá ta, že vždy vybereme náhodně s opaováním N prvů, naučíme model a uložíme jeho nastavení. Máme ta na onci M různě nastavených modelů stejného typu. 6

7 Bagging - predice máme novou instanci x pro aždý z M modelů urči třídu, do teré má být prve lasifiován vrať třídu, terá byla nejčastěji prediována, dílčí modely jsou tedy rovnocené (C je počet tříd) G bagging x i1... C x v případě regrese vrať průměrnou výstupní hodnotu f bagging x arg max 1 M M j1 M j1 f j f j x? Popiš princip a vlastnosti baggingu (v čem spočívá diverzifiace) 7

8 Bagging vlastnosti, použití použití v případě nedostatu dat zvyšuje stabilitu a přesnost (snižuje varianci a rizio přeučení) typicá apliace na nestabilní modely (např. rozhodovací stromy, NN) předností RS je jejich interpretovatelnost, terá se vša použitím baggingu ztrácí nepoužívá se na lineární (velý bias, silná generalizace) a robustní (IBL) modely nemá efet existuje i váhová varianta MetaCost (poud výstupy modelu mají pravděpodobnostní charater Bayes, NN) 8

9 Stacing záladní rysy učíme model, terý ombinuje libovolné typy modelů nižší úrovně na vyšší úrovni učíme zpravidla jednoduchý (např. lineární) model je výhodné, dyž model nižší úrovně romě predice udává taé míru důvěryhodnosti své predice (logitový model, NN, Bayes, ) trénovacích data určena výběrem typu Cross-Valiadation, což je výpočetně náročné variantou je označení dílčích modelů váhou w i, terou je násobena predice aždého modelu nižší úrovně modely nižší úrovně, úroveň 0, jsou učeny vždy na záladě stejné množiny trénovacích dat, jejich predicí na testovacích datech zísáme vstupní hodnoty do modelu úrovně 1 (metalearner). Jeho strutura je jednoduchá (lineární, RS). Počet vstupů do meta-modelu odpovídá počtu modelů úrovně 0, nebo jeho násobu počtem tříd (dyž je výstupem nižšího modelů pravděpodobnost lasifiace do aždé ze tříd) V čem spočívá diverzifiace stacingu? 9

10 Stacing varianta s výpočtem vah cílem je nastavit váhy w i pro M modelů f i nižší úrovně ta, aby byla minimalizována chyba LF od požadovaného výsledu test představuje množinu testovacích dat. Zápis f -t znamená model nastavený na záladě trénovacích dat (bez t testovacích), x +t testovací data, test počet dělení pomocí Cross-Validation w arg min w test LF y t M t1 j1, w j f t j x t ideálně jsou váhy nastaveny ta, aby jejich součet byl roven 1 10

11 Boosting idea nejpoužívanější metoda meta-learningu smyslem je vytvoření více modelů stejného typu, jejichž přesnost stačí lepší než náhodná, tzv. wea learner (více než 50% úspěšně lasifiovaných prvů) princip diverzifiace metody spočívá v tom, že jsou postupně vytvářeny modely více specializované na trénovací data, terá model předešlý lasifioval chybně různé algoritmy se liší způsobem, jaým zvyšují význam trénovacích dat, terá nebyla v předešlých modelech rozpoznána předpolad je, že více jednoduchých modelů poryje přesněji prostor možných řešení V čem spočívá diverzifiace boostingu? 11

12 Boosting bez váhy (ostraňuje data) původní idea nepoužívá vah, jedinou diverzifiací je cílený výběr trénovacích prvů podle úspěšnosti lasifiace předešlých modelů na první model je použito např. N/3 dat výběrem bez opaování, z nich nastaven první model f 1 s přesností lepší než 50% další model f 2 je nastaven z dat, terá model f 1 lasifiuje chybně a z dalších dosud nepoužitých dat ta lze poračovat do vyčerpání trénovací množiny lasifiace pa probíhá jao hlasování naučených modelů není jasně definováno, jaým způsobem jsou data vybírána, respetive není důaz o tom, jaý způsob je nejlepší (výběry jsou vša vždy bez opaování) 12

13 Boosting bez váhy přílad 13

14 Boosting s váhou (aždý prve má váhu) tato verze počítá s váhami jednotlivých záznamů model je vždy trénován na všechna trénovací data, avša chybu lasifiace jednoho prvu ovlivňuje jeho váha (poud ho předešlé modely vždy poznaly, má na chybu menší vliv) obecně se tento postup stále více specializuje na problémové prvy a vede větší chybě dílčího modelu (nově vytvořeného) dále je aždému vytvořenému modelu na záladě jeho přesnosti přidělena váha modelu, terá určuje jeho vliv na onečnou lasifiaci modifiací je výběr nových trénovacích prvů s opaováním podle jejich pravděpodobnosti odvozené z veliosti váhy w 14

15 Boosting celová chyba modelu s přibývajícím počtem modelů se jejich dílčí chyba zvětšuje (zelená), ale celová chyba ja na trénovacích (černá) ta na testovacích datech se zmenšuje? Proč se u Boostingu s rostoucí iterací dílčí trénovací chyba modelů zhoršuje 15

16 AdaBoost princip AdaBoost významný boostingový algoritmus dáno N záznamů x,y váha aždého prvu W 1 (i)=1/n, de i=1..n opauj -rát nauč model C z dat s ohledem na váhy W (i) z chyby E modelu C vypočti váhu modelu vytvoř W +1 ta, že zvětšena váha chybně lasifiovaných, oslabena dobře lasifiovaných záznamů vytvořen lasifiátor tvořený modely? popište princip algoritmu AdaBoost 16

17 Boosting záladní algoritmus (binární lasifiace) Algoritmus učení nastav stejné váhy všem N prvům, =1 (index iterace), opauj: nauč model s ohledem na váhy W prvů vypočti chybu modelu E na všech trénovacích datech E N i1 W i LFy, C ( x ) i onec dyž E =0 nebo E >=0,5 (horší než náhodný) přepočti W všech prvů a spočti pro tento model, =+1 W 1 i W i E 1 E 1 i chybná lasifiace správnálasifiace W 1 i W W 1 i i 1 E log 1 E 1 E log E? Vysytuje se v algoritmu boosting resubstituční chyba 17

18 AdaBoost omentáře algoritmu Poznáma Kódování tříd 1 / +1 Odhad chyby modelu protože se počítá přes trénovací data, jedná se o chybu resubstituční (byť je model učen na datech váhovaných) Váha dílčího lasifiátoru je váha lasifiátoru C Konečná lasifiace E N i1 W i LFy, C ( x ) i i G x sign M i1 C i i x 18

19 AdaBoost - vlastnosti AdaBoost reduuje trénovací chybu exponenciálně v závislosti na rostoucím počtu max v hlasující supině. poud aždý z lasifiátorů ve supině dává lepší výsledy než náhodné, váhové rozhodnutí celé supiny zaručuje poles chyby na trénovacích datech velmi často dochází podobnému polesu i na testovacích datech pozor, algoritmus je možné přeučit (odvíjí se zejména od přílišné složitosti dílčích modelů) Occamovo ostří identicá chyba boosting modelů, druhý vša z více modelů empiricy zjištěno, že je na testovacích datech přesnější; není v rozporu, viz. hranice (meze) u separace optimální nadrovinou respetive modely nejsou ve sutečnosti identicé 19

20 AdaBoost přílad binární lasifiace 10 vstupních veličin všechny mají normální rozložení trénovacích testovacích sledujeme chybu na testovacích datech (test error) 20

21 Hlavní charateristiy 1/2 Bagging trénovacích dat N, náhodným výběrem s opaováním M trénovacích množin, použití dyž máme málo dat a nestabilní preditor (RS, NN) M modelů stejného typu naučené z M trénovacích výběrů diverzifiace různými trénovacími množinami jednotlivé modely jsou rovnocené, rozhoduje nejčastější výslede (lasifiace) nebo průměr (regrese) Stacing použití dělení dat typu Cross-Validation modely různého typu naučené vždy ze stejných trénovacích dat diverzifiace různými algoritmy aždý model má svou váhu (míru důvěry ve svou predici) 21

22 Hlavní charateristiy 2/2 Boosting trénovací data váhována, posilování chybně prediovaných záznamů použití M modelů stejného typu diverzifiaci tvoří postupně se měnící váhy trénovacích dat v závislosti na tom, ja úspěšně jsou lasifiovány jednotlivými modely lasifiace probíhá na záladě hlasování jednotlivých modelů; je brána v potaz váha aždého modelu VIS charaterizuj hlavní rysy aždé z metod 22

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

Obsah přednášky Jaká asi bude chyba modelu na nových datech? Obsah přednášky Jaká asi bude chyba modelu na nových datech? Chyba modelu Bootstrap Cross Validation Vapnik-Chervonenkisova dimenze 2 Chyba skutečná a trénovací Máme 30 záznamů, rozhodli jsme se na jejich

Více

Shluková analýza, Hierarchické, Nehierarchické, Optimum, Dodatek. Učení bez učitele

Shluková analýza, Hierarchické, Nehierarchické, Optimum, Dodatek. Učení bez učitele 1 Obsah přednášy 1. Shluová analýza 2. Podobnost objetů 3. Hierarchicé shluování 4. Nehierarchicé shluování 5. Optimální počet shluů 6. Další metody 2 Učení bez učitele není dána výstupní lasifiace (veličina

Více

(iv) D - vybíráme 2 koule a ty mají různou barvu.

(iv) D - vybíráme 2 koule a ty mají různou barvu. 2 cvičení - pravděpodobnost 2102018 18cv2tex Definice pojmů a záladní vzorce Vlastnosti pravděpodobnosti Pravděpodobnost P splňuje pro libovolné jevy A a B následující vlastnosti: 1 0, 1 2 P (0) = 0, P

Více

Základním pojmem v kombinatorice je pojem (k-prvková) skupina, nebo také k-tice prvků, kde k je přirozené číslo.

Základním pojmem v kombinatorice je pojem (k-prvková) skupina, nebo také k-tice prvků, kde k je přirozené číslo. přednáša KOMBINATORIKA Při řešení mnoha praticých problémů se setáváme s úlohami, ve terých utváříme supiny z prvů nějaé onečné množiny Napřílad máme sestavit rozvrh hodin z daných předmětů, potřebujeme

Více

Kombinace s opakováním

Kombinace s opakováním 9..3 Kombinace s opaováním Předpolady: 907. 908, 9, 92 Pedagogicá poznáma: Tato hodina zabere opět minimálně 70 minut. Asi ji čeá rozšíření na dvě hodiny. Netradiční začáte. Nemáme žádné přílady, ale rovnou

Více

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky

Více

MULTIKRITERIÁLNÍ ROZHODOVÁNÍ VEKTOROVÁ OPTIMALIZACE

MULTIKRITERIÁLNÍ ROZHODOVÁNÍ VEKTOROVÁ OPTIMALIZACE OPTIMALIZACE A ROZHODOVÁNÍ V DOPRAVĚ část druhá Přednáša 5 PŘEDNÁŠKA 5 MULTIKRITERIÁLNÍ ROZHODOVÁNÍ VEKTOROVÁ OPTIMALIZACE OPTIMALIZACE A ROZHODOVÁNÍ V DOPRAVĚ část druhá Přednáša 5 Multiriteriální rozhodování

Více

Kombinace s opakováním

Kombinace s opakováním 9..3 Kombinace s opaováním Předpolady: 907. 908, 9, 92 Pedagogicá poznáma: Časová náročnost této hodiny je podobná hodině předchozí. Netradiční začáte. Nemáme žádné přílady, ale rovnou definici. Definice

Více

7.3.9 Směrnicový tvar rovnice přímky

7.3.9 Směrnicový tvar rovnice přímky 7.3.9 Směrnicový tvar rovnice přímy Předpolady: 7306 Pedagogicá poznáma: Stává se, že v hodině nestihneme poslední část s určováním vztahu mezi směrnicemi olmých příme. Vrátíme se obecné rovnici přímy:

Více

6 5 = 0, = 0, = 0, = 0, 0032

6 5 = 0, = 0, = 0, = 0, 0032 III. Opaované pousy, Bernoulliho nerovnost. Házíme pětrát hrací ostou a sledujeme výsyt šesty. Spočtěte pravděpodobnosti možných výsledů a určete, terý má největší pravděpodobnost. Řešení: Jedná se o serii

Více

1.5.7 Prvočísla a složená čísla

1.5.7 Prvočísla a složená čísla 17 Prvočísla a složená čísla Předpolady: 103, 106 Dnes bez alulačy Číslo 1 je dělitelné čísly 1,, 3,, 6 a 1 Množinu, terou tvoří právě tato čísla, nazýváme D 1 množina dělitelů čísla 1, značíme ( ) Platí:

Více

6. Měření Youngova modulu pružnosti v tahu a ve smyku

6. Měření Youngova modulu pružnosti v tahu a ve smyku 6. Měření Youngova modulu pružnosti v tahu a ve smyu Úol : Určete Youngův modul pružnosti drátu metodou přímou (z protažení drátu). Prostudujte doporučenou literaturu: BROŽ, J. Zálady fyziálních měření..

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Vytěžování znalostí z dat Department of Computer Systems Faculty of Information Technology Czech Technical University in Prague Přednáška 5: Hodnocení kvality modelu BI-VZD, 09/2011 MI-POA Evropský sociální

Více

Hodnocení přesnosti výsledků z metody FMECA

Hodnocení přesnosti výsledků z metody FMECA Hodnocení přesnosti výsledů z metody FMECA Josef Chudoba 1. Úvod Metoda FMECA je semivantitativní metoda, pomocí teré se identifiují poruchy s významnými důsledy ovlivňující funci systému. Závažnost následů

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 11 1/31 Vytěžování znalostí z dat Pavel Kordík Department of Computer Systems Faculty of Information Technology Czech Technical

Více

Příklady: - počet členů dané domácnosti - počet zákazníků ve frontě - počet pokusů do padnutí čísla šest - životnost televizoru - věk člověka

Příklady: - počet členů dané domácnosti - počet zákazníků ve frontě - počet pokusů do padnutí čísla šest - životnost televizoru - věk člověka Náhodná veličina Náhodnou veličinou nazýváme veličinu, terá s určitými p-stmi nabývá reálných hodnot jednoznačně přiřazených výsledům příslušných náhodných pousů Náhodné veličiny obvyle dělíme na dva záladní

Více

7.3.9 Směrnicový tvar rovnice přímky

7.3.9 Směrnicový tvar rovnice přímky 739 Směrnicový tvar rovnice přímy Předpolady: 7306 Pedagogicá poznáma: Stává se, že v hodině nestihneme poslední část s určováním vztahu mezi směrnicemi olmých příme Vrátíme se obecné rovnici přímy: Obecná

Více

4. Přednáška: Kvazi-Newtonovské metody:

4. Přednáška: Kvazi-Newtonovské metody: 4 Přednáša: Kvazi-Newtonovsé metody: Metody s proměnnou metriou, modifiace Newtonovy metody Efetivní pro menší úlohy s hustou Hessovou maticí Newtonova metoda (opaování): f aproximujeme loálně vadraticou

Více

1. KOMBINATORIKA. Příklad 1.1: Mějme množinu A a. f) uspořádaných pětic množiny B a. Řešení: a)

1. KOMBINATORIKA. Příklad 1.1: Mějme množinu A a. f) uspořádaných pětic množiny B a. Řešení: a) 1. KOMBINATORIKA Kombinatoria je obor matematiy, terý zoumá supiny prvů vybíraných z jisté záladní množiny. Tyto supiny dělíme jedna podle toho, zda u nich záleží nebo nezáleží na pořadí zastoupených prvů

Více

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC Přednáša 04 Přírodovědecá faulta Katedra matematiy KMA/P506 Pravděpodobnost a statistia KMA/P507 Statistia na PC jiri.cihlar@ujep.cz Záon velých čísel Lemma Nechť náhodná veličina nabývá pouze nezáporných

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Číselné charateristiy náhodných proměnných Charateristiy náhodných proměnných dělíme nejčastěji na charateristiy polohy a variability. Mezi charateristiy polohy se nejčastěji

Více

Kombinování klasifikátorů Ensamble based systems

Kombinování klasifikátorů Ensamble based systems Kombinování klasifikátorů Ensamble based systems Rozhodování z více hledisek V běžném životě se často snažíme získat názor více expertů, než přijmeme závažné rozhodnutí: Před operací se radíme s více lékaři

Více

Základním pojmem v kombinatorice je pojem (k-prvková) skupina, nebo také k-tice prvků, kde k je přirozené číslo.

Základním pojmem v kombinatorice je pojem (k-prvková) skupina, nebo také k-tice prvků, kde k je přirozené číslo. přednáša KOMBINATORIKA Kombinatoria je obor matematiy, terý se zabývá uspořádáním daných prvů podle určitých pravidel do určitých supin Záladním pojmem v ombinatorice je pojem (-prvová) supina, nebo taé

Více

Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti Vytěžování Dat Přednáška 12 Kombinování modelů Miroslav Čepek Pavel Kordík a Jan Černý (FIT) Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL)

Více

4 všechny koeficienty jsou záporné, nedochází k žádné změně. Rovnice tedy záporné reálné kořeny nemá.

4 všechny koeficienty jsou záporné, nedochází k žádné změně. Rovnice tedy záporné reálné kořeny nemá. Přílad 1. Řešte v R rovnici x 4x + x 4 0. Výslede vypočtěte s přesností alespoň 0,07. 1) Reálné ořeny rovnice budou ležet v intervalu ( 5,5), protože největší z oeficientů polynomu bez ohledu na znaméno

Více

NUMP403 (Pravděpodobnost a Matematická statistika I)

NUMP403 (Pravděpodobnost a Matematická statistika I) NUMP0 (Pravděpodobnost a Matematicá statistia I Střední hodnota disrétního rozdělení. V apce máte jednu desetiorunu, dvě dvacetioruny a jednu padesátiorunu. Zloděj Vám z apsy náhodně vybere tři mince.

Více

Strojové učení Marta Vomlelová

Strojové učení Marta Vomlelová Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer

Více

Klasifikace a rozpoznávání. Umělé neuronové sítě a Support Vector Machines

Klasifikace a rozpoznávání. Umělé neuronové sítě a Support Vector Machines Klasifiace a rozpoznávání Umělé neuronové sítě a Support Vector Machines x 1 x 2 w 1 w 2 Lineární lasifiátory a y = f ( w T x+b) Σ f(.) y b Nevýhoda: pouze lineární rozhodovací hranice Možné řešení: Použít

Více

Metoda konjugovaných gradientů

Metoda konjugovaných gradientů 0 Metoda onjugovaných gradientů Ludě Kučera MFF UK 11. ledna 2017 V tomto textu je popsáno, ja metodou onjugovaných gradientů řešit soustavu lineárních rovnic Ax = b, de b je daný vetor a A je symetricá

Více

O kurzu MSTU Témata probíraná v MSTU

O kurzu MSTU Témata probíraná v MSTU O kurzu MSTU Témata probíraná v MSTU 1.: Úvod do STU. Základní dělení, paradigmata. 2.: Základy statistiky. Charakteristiky, rozložení, testy. 3.: Modely: rozhodovací stromy. 4.: Modely: učení založené

Více

Mocnost bodu ke kružnici

Mocnost bodu ke kružnici 3.. ocnost bodu e ružnici Předpolady: 03009 Př. : Je dána ružnice a bod, ležící vně ružnice. Veď bodem dvě různé sečny ružnice p a p. Průsečíy sečny p s ružnicí označ A, B. Průsečíy sečny p s ružnicí označ

Více

Mocnost bodu ke kružnici

Mocnost bodu ke kružnici 3..0 ocnost bodu e ružnici Předpolady: 309 Př. : Je dána ružnice a bod, ležící vně ružnice. Veď bodem dvě různé sečny ružnice p a p. Průsečíy sečny p,. Průsečíy sečny p,. Změř potřebné vzdálenosti a spočti

Více

Měření indukčností cívek

Měření indukčností cívek 7..00 Ṫeorie eletromagneticého pole Měření indučností cíve.......... Petr Česá, studijní supina 05 Letní semestr 000/00 . Měření indučností cíve Měření vlastní a vzájemné indučnosti válcových cíve ZAÁNÍ

Více

f (k) (x 0 ) (x x 0 ) k, x (x 0 r, x 0 + r). k! f(x) = k=1 Řada se nazývá Taylorovou řadou funkce f v bodě x 0. Přehled některých Taylorových řad.

f (k) (x 0 ) (x x 0 ) k, x (x 0 r, x 0 + r). k! f(x) = k=1 Řada se nazývá Taylorovou řadou funkce f v bodě x 0. Přehled některých Taylorových řad. 8. Taylorova řada. V urzu matematiy jsme uázali, že je možné funci f, terá má v oolí bodu x derivace aproximovat polynomem, jehož derivace se shodují s derivacemi aproximované funce v bodě x. Poud má funce

Více

3.3.4 Thaletova věta. Předpoklady:

3.3.4 Thaletova věta. Předpoklady: 3.3.4 Thaletova věta Předpolady: 030303 Př. : Narýsuj ružnici ( ;5cm) a její průměr. Na ružnici narýsuj libovolný bod různý od bodů, (bod zvol jina než soused v lavici). Narýsuj trojúhelní. Má nějaou speciální

Více

MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU

MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU Úloha č 5 MĚŘENÍ MOMENTU SETRVAČNOSTI Z DOBY KYVU ÚKOL MĚŘENÍ: Určete moment setrvačnosti ruhové a obdélníové desy vzhledem jednotlivým osám z doby yvu Vypočtěte moment setrvačnosti ruhové a obdélníové

Více

METODICKÉ LISTY Z MATEMATIKY pro gymnázia a základní vzdělávání

METODICKÉ LISTY Z MATEMATIKY pro gymnázia a základní vzdělávání METODICKÉ LISTY Z MATEMATIKY pro gymnázia a záladní vzdělávání Jaroslav Švrče a oletiv Rámcový vzdělávací program pro gymnázia Vzdělávací oblast: Matematia a její apliace Tematicý oruh: Práce s daty ombinatoria

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT RNDr. Eva Janoušová INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ HODNOCENÍ ÚSPĚŠNOSTI KLASIFIKACE A SROVNÁNÍ KLASIFIKÁTORŮ ÚVOD Vstupní data Subjekt Objem hipokampu Objem komor Skutečnost

Více

1. Úvod do základních pojmů teorie pravděpodobnosti

1. Úvod do základních pojmů teorie pravděpodobnosti 1. Úvod do záladních pojmů teore pravděpodobnost 1.1 Úvodní pojmy Většna exatních věd zobrazuje své výsledy rgorózně tj. výsledy jsou zísávány na záladě přesných formulí a jsou jejch nterpretací. em je

Více

Binomická věta

Binomická věta 97 Binomicá věta Předpolady: 96 Kdysi dávno v prvním ročníu jsme se učili vzorce na umocňování dvojčlenu Př : V tabulce jsou vypsány vzorce pro umocňování dvojčlenu Najdi podobnost s jinou dosud probíranou

Více

Dynamika populací s oddělenými generacemi

Dynamika populací s oddělenými generacemi Dynamia populací s oddělenými generacemi Tento text chce představit nejjednodušší disrétní deterministicé dynamicé modely populací. Deterministicé nebudeme uvažovat náhodné vlivy na populace působící nebo

Více

Reprezentace přirozených čísel ve Fibonacciho soustavě František Maňák, FJFI ČVUT, 2005

Reprezentace přirozených čísel ve Fibonacciho soustavě František Maňák, FJFI ČVUT, 2005 Reprezentace přirozených čísel ve ibonacciho soustavě rantiše Maňá, JI ČVUT, 2005 Úvod Ja víme, přirozená čísla lze vyádřit různými způsoby Nečastěi zápisu čísel používáme soustavu desítovou, ale umíme

Více

Úvod do Kalmanova filtru

Úvod do Kalmanova filtru Kalmanův filtr = odhadovač stavu systému Úvod do Kalmanova filtru KF dává dohromady model systému a měření. Model systému použije tomu, aby odhadl, ja bude stav vypadat a poté stav porovná se sutečným

Více

Motivace. Náhodný pokus, náhodný n jev. pravděpodobnost. podobnostní charakteristiky diagnostických testů, Bayesův vzorec. Prof.RND. RND.

Motivace. Náhodný pokus, náhodný n jev. pravděpodobnost. podobnostní charakteristiky diagnostických testů, Bayesův vzorec. Prof.RND. RND. Pravděpodobnostn podobnostní charateristiy diagnosticých testů, Bayesův vzorec Prof.RND RND.Jana Zvárov rová,, DrSc. Náhodný pous, náhodný n jev Náhodný pous: výslede není jednoznačně určen podmínami,

Více

Testování hypotéz. December 10, 2008

Testování hypotéz. December 10, 2008 Testování hypotéz December, 2008 (Testování hypotéz o neznámé pravděpodobnosti) Jan a Františe mají pytlíy s uličami. Jan má 80 bílých a 20 červených, Františe má 30 bílých a 70 červených. Vybereme náhodně

Více

1 Gaussova kvadratura

1 Gaussova kvadratura Cvičení - zadání a řešení úloh Zálady numericé matematiy - NMNM0 Verze z 7. prosince 08 Gaussova vadratura Fat, že pro něterá rovnoměrná rozložení uzlů dostáváme přesnost o stupeň vyšší napovídá, že pro

Více

Instance based learning

Instance based learning Učení založené na instancích Instance based learning Charakteristika IBL (nejbližších sousedů) Tyto metody nepředpokládají určitý model nejsou strukturované a typicky nejsou příliš užitečné pro porozumění

Více

Statistická analýza dat

Statistická analýza dat Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte

Více

2. STAVBA PARTPROGRAMU

2. STAVBA PARTPROGRAMU Stavba partprogramu 2 2. STAVBA PARTPROGRAMU 2.1 Slovo partprogramu 2.1.1 Stavba slova Elementárním stavebním prvem partprogramu je tzv. slovo (instruce programu). Každé slovo sestává z písmene adresy

Více

MATEMATIKA II V PŘÍKLADECH

MATEMATIKA II V PŘÍKLADECH VYSOKÁ ŠKOL BÁŇSKÁ TECHICKÁ UIVERZIT OSTRV FKULT STROJÍ MTEMTIK II V PŘÍKLDECH CVIČEÍ Č 0 Ing Petra Schreiberová, PhD Ostrava 0 Ing Petra Schreiberová, PhD Vysoá šola báňsá Technicá univerzita Ostrava

Více

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ ÚSTAV AUTOMATIZACE A MĚŘÍCÍ TECHNIKY FACULTY OF ELECTRICAL ENGINEERING AND COMMUNICATION

Více

Fyzikální praktikum č.: 1

Fyzikální praktikum č.: 1 Datum: 5.5.2005 Fyziální pratium č.: 1 ypracoval: Tomáš Henych Název: Studium činnosti fotonásobiče Úol: 1. Stanovte závislost oeficientu seundární emise na napětí mezi dynodami. yneste do grafu závislost

Více

Reciprokou funkci znáte ze základní školy pod označením nepřímá úměra.

Reciprokou funkci znáte ze základní školy pod označením nepřímá úměra. @091 7. Reciproá funce Reciproou funci znáte ze záladní šoly pod označením nepřímá úměra. Definice: Reciproá funce je dána předpisem ( 0 je reálné číslo) f : y R \ {0} A) Definiční obor funce: Je třeba

Více

9 Stupně vrcholů, Věta Havla-Hakimiho

9 Stupně vrcholů, Věta Havla-Hakimiho Typicé přílady pro zápočtové písemy DiM 470-301 (Kovář, Kovářová, Kubesa) (verze: November 5, 018) 1 9 Stupně vrcholů, Věta Havla-Haimiho 9.1. Doážete nareslit graf na 9 vrcholech, ve terém mají aždé dva

Více

Geometrická zobrazení

Geometrická zobrazení Pomocný text Geometricá zobrazení hodná zobrazení hodná zobrazení patří nejjednodušším zobrazením na rovině. Je jich vša hrozně málo a často se stává, že musíme sáhnout i po jiných, nědy výrazně složitějších

Více

zpracování signálů - Fourierova transformace, FFT Frekvenční

zpracování signálů - Fourierova transformace, FFT Frekvenční Digitální zpracování signálů - Fourierova transformace, FF Frevenční analýza 3. přednáša Jean Baptiste Joseph Fourier (768-830) Zálady experimentální mechaniy Frevenční analýza Proč se frevenční analýza

Více

Analýza a zpracování signálů. 5. Z-transformace

Analýza a zpracování signálů. 5. Z-transformace nalýa a pracování signálů 5. Z-transformace Z-tranformace je mocný nástroj použitelný pro analýu lineárních discretetime systémů Oboustranná Z-transformace X j F j x, je omplexní číslo r e r e Oboustranná

Více

Pravděpodobnost a statistika

Pravděpodobnost a statistika Pravděpodobnost a statistia Přílady a otázy Petr Hebá a Hana Salsá GAUDEAMUS 2011 Autoři: prof. Ing. Petr Hebá, CSc. Autoři: prof. RNDr. Hana Salsá, CSc. Recenzenti: doc. RNDr. Tatiana Gavalcová, CSc.

Více

Andrew Kozlík KA MFF UK

Andrew Kozlík KA MFF UK Operační režimy (módy) bloových šifer Andrew Kozlí KA MFF UK Operační režimy (módy) bloových šifer Říáme, že šifra (P, C, K,, D) je bloová, jestliže P = C = {0, 1} b pro nějaé b. Napřílad DS (b = 64 bitů)

Více

GENETICKÉ UČENÍ NEURONOVÝCH SÍTÍ GENETIC LEARNING OF NEURAL NETWORKS. Roman Biskup, Anna Čermáková

GENETICKÉ UČENÍ NEURONOVÝCH SÍTÍ GENETIC LEARNING OF NEURAL NETWORKS. Roman Biskup, Anna Čermáková GENETICKÉ UČENÍ NEURONOVÝCH SÍTÍ GENETIC LEARNING OF NEURAL NETWORKS Roman Bisup, Anna Čermáová Anotace: Příspěve se zabývá prezentací principů učení jednoho onrétního typu neuronových sítí. Cílem práce

Více

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost. Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační

Více

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005 Rozpoznávání písmen Jiří Šejnoha Rudolf Kadlec (c) 2005 Osnova Motivace Popis problému Povaha dat Neuronová síť Architektura Výsledky Zhodnocení a závěr Popis problému Jedná se o praktický problém, kdy

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat Zkouška ISR 2013 přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat 1. Rozdílné principy u induktivního a deduktivního

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2011, Cvičení 9 1/16 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information

Více

χ 2 testy. Test nekorelovanosti.

χ 2 testy. Test nekorelovanosti. χ 2 testy. Test neorelovanosti. Petr Poší Části doumentu jsou převzaty (i doslovně) z Miro Navara: Pravděpodobnost a matematicá statistia, https://cw.fel.cvut.cz/lib/exe/fetch.php/courses/a6m33ssl/pms_print.pdf

Více

1.3.5 Kružnice, kruh. Předpoklady: Narýsuj bod S. Kružítkem narýsuj kružnici se středem v bodu S a poloměrem 3 cm.

1.3.5 Kružnice, kruh. Předpoklady: Narýsuj bod S. Kružítkem narýsuj kružnici se středem v bodu S a poloměrem 3 cm. 1.3.5 Kružnice, ruh Předpolady: 010304 Př. 1: Narýsuj bod. Kružítem narýsuj ružnici se středem v bodu a poloměrem 3 cm. tejně jao přímy označujeme ružnice malým písmenem (většinou začínáme písmenem ;3cm,

Více

Budeme pokračovat v nahrazování funkce f(x) v okolí bodu a polynomy, tj. hledat vhodné konstanty c n tak, aby bylo pro malá x a. = f (a), f(x) f(a)

Budeme pokračovat v nahrazování funkce f(x) v okolí bodu a polynomy, tj. hledat vhodné konstanty c n tak, aby bylo pro malá x a. = f (a), f(x) f(a) Předáša 7 Derivace a difereciály vyšších řádů Budeme poračovat v ahrazováí fuce f(x v oolí bodu a polyomy, tj hledat vhodé ostaty c ta, aby bylo pro malá x a f(x c 0 + c 1 (x a + c 2 (x a 2 + c 3 (x a

Více

Pravděpodobně skoro správné. PAC učení 1

Pravděpodobně skoro správné. PAC učení 1 Pravděpodobně skoro správné (PAC) učení PAC učení 1 Výpočetní teorie strojového učení Věta o ošklivém kačátku. Nechť E je klasifikovaná trénovací množina pro koncept K, který tvoří podmnožinu konečného

Více

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili? Testování modelů a jejich výsledků Jak moc můžeme věřit tomu, co jsme se naučili? Osnova Úvod Trénovací, Testovací a Validační datové soubory Práce s nebalancovanými daty; ladění parametrů Křížová validace

Více

( ) Příklady na otočení. Předpoklady: Př. 1: Je dána kružnice k ( S ;5cm)

( ) Příklady na otočení. Předpoklady: Př. 1: Je dána kružnice k ( S ;5cm) 3.5.9 Přílady na otočení Předpolady: 3508 Př. 1: Je dána ružnice ( ;5cm), na teré leží body, '. Vně ružnice leží bod L, uvnitř ružnice bod M. Naresli obrazy bodů L, M v zobrazení řeš bez úhloměru. R (

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

Buckinghamův Π-teorém (viz Barenblatt, Scaling, 2003)

Buckinghamův Π-teorém (viz Barenblatt, Scaling, 2003) Bucinghamův Π-teorém (viz Barenblatt, Scaling, 2003) Formalizace rozměrové analýzy ( výsledné jednoty na obou stranách musí souhlasit ). Rozměr fyziální veličiny Mějme nějaou třídu jednote, napřílad [(g,

Více

České vysoké učení technické v Praze Fakulta biomedicínského inženýrství

České vysoké učení technické v Praze Fakulta biomedicínského inženýrství Česé vysoé učení technicé v Praze Faulta biomedicínsého inženýrství Úloha KA03/č. 3: Měření routícího momentu Ing. Patri Kutíle, Ph.D., Ing. Adam Žiža (utile@bmi.cvut.cz, ziza@bmi.cvut.cz) Poděování: Tato

Více

PRVOČÍSLA 1 Jan Malý UK v Praze a UJEP v Ústí n. L. Obsah

PRVOČÍSLA 1 Jan Malý UK v Praze a UJEP v Ústí n. L. Obsah PRVOČÍSLA Jan Malý UK v Praze a UJEP v Ústí n. L. Obsah. Elementární úlohy o prvočíslech 2. Kongruence 2 3. Algebraicé rovnice a polynomy 3 4. Binomicá a trinomicá věta 5 5. Malá Fermatova věta 7 6. Diferenční

Více

Alternativní rozdělení. Alternativní rozdělení. Binomické rozdělení. Binomické rozdělení

Alternativní rozdělení. Alternativní rozdělení. Binomické rozdělení. Binomické rozdělení Alternativní rozdělení Alternativní rozdělení Alternativní rozdělení Alternativní rozdělení Náhodná veličina X má alternativní rozdělení s parametrem p, jestliže nabývá hodnot 0 a 1 s pravděpodobnostmi

Více

Příloha č. 1 Část II. Ekonomika systému IDS JMK

Příloha č. 1 Část II. Ekonomika systému IDS JMK Příloha č. 1 Část II. Eonomia systému IDS JMK Květen 2011 Eonomia systému IDS JMK I. EKONOMICKÉ JEDNOTKY Pro účely dělení výnosů je rozděleno území IDS JMK do eonomicých jednote tvořených supinami tarifních

Více

3. Vícevrstvé dopředné sítě

3. Vícevrstvé dopředné sítě 3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze

Více

20 - Číslicové a diskrétní řízení

20 - Číslicové a diskrétní řízení 20 - Číslicové a disrétní řízení Michael Šebe Automaticé řízení 2018 18-4-18 Automaticé řízení - Kybernetia a robotia Analogové a číslicové řízení Proč číslicově? Snadno se přeprogramuje (srovnej s výměnou

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

THE POSSIBILITY OF RELOCATION WAREHOUSES IN CZECH-POLISH BORDER MOŽNOSTI RELOKACE SKLADŮ V ČESKO-POLSKÉM PŘÍHRANIČÍ

THE POSSIBILITY OF RELOCATION WAREHOUSES IN CZECH-POLISH BORDER MOŽNOSTI RELOKACE SKLADŮ V ČESKO-POLSKÉM PŘÍHRANIČÍ Jan CHOCHOLÁČ 1 THE POSSIBILITY OF RELOCATION WAREHOUSES IN CZECH-POLISH BORDER MOŽNOSTI RELOKACE SKLADŮ V ČESKO-POLSKÉM PŘÍHRANIČÍ BIO NOTE Jan CHOCHOLÁČ Asistent na Katedře dopravního managementu, maretingu

Více

Testování modelů a jejich výsledků. tomu, co jsme se naučili?

Testování modelů a jejich výsledků. tomu, co jsme se naučili? Testování modelů a jejich výsledků Jak moc můžeme věřit tomu, co jsme se naučili? Osnova Úvod Trénovací, Testovací a Validační datové soubory Práce s nebalancovanými daty; ladění parametrů Křížová validace

Více

MOMENT SETRVAČNOSTI. Obecná část Pomocí Newtonova pohybového zákona síly můžeme odvodit pohybovou rovnici pro rotační pohyb:

MOMENT SETRVAČNOSTI. Obecná část Pomocí Newtonova pohybového zákona síly můžeme odvodit pohybovou rovnici pro rotační pohyb: MOMENT SETRVAČNOST Obecná část Pomocí Newtonova pohybového záona síly můžeme odvodit pohybovou rovnici pro rotační pohyb: dω M = = ε, (1) d t de M je moment vnější síly působící na těleso, ω úhlová rychlost,

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

Konstrukce trojúhelníků II

Konstrukce trojúhelníků II .7.0 Konstruce trojúhelníů II Předpolady: 00709 Minulá hodina: Tři věty o shodnosti (odpovídají jednoznačným postupům pro onstruci trojúhelníu): Věta sss: Shodují-li se dva trojúhelníy ve všech třech stranách,

Více

Rozdělování dat do trénovacích a testovacích množin

Rozdělování dat do trénovacích a testovacích množin Rozdělování dat do trénovacích a testovacích množin Marcel Jiřina Rozpoznávání je důležitou metodou při zpracování reálných úloh. Rozpoznávání je definováno dvěma kroky a to pořízením dat o reálném rozpoznávaném

Více

Strojové učení Marta Vomlelová

Strojové učení Marta Vomlelová Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer

Více

pracovní verze pren 13474 "Glass in Building", v níž je uveden postup výpočtu

pracovní verze pren 13474 Glass in Building, v níž je uveden postup výpočtu POROVNÁNÍ ANALYTICKÉHO A NUMERICKÉHO VÝPOČTU NOSNÉ KONSTRUKCE ZE SKLA Horčičová I., Netušil M., Eliášová M. Česé vysoé učení technicé v Praze, faulta stavební Anotace Slo se v moderní architetuře stále

Více

Návrh vysokofrekvenčních linkových transformátorů

Návrh vysokofrekvenčních linkových transformátorů inové transformátory inové transformátory Při požadavu na transformaci impedancí v široém frevenčním pásmu, dy nelze obsáhnout požadovanou oblast mitočtů ani široopásmovými obvody, je třeba použít široopásmových

Více

ANOVA. Analýza rozptylu při jednoduchém třídění. Jana Vránová, 3.lékařská fakulta UK, Praha

ANOVA. Analýza rozptylu při jednoduchém třídění. Jana Vránová, 3.lékařská fakulta UK, Praha ANOVA Analýza rozptylu př jednoduchém třídění Jana Vránová, 3.léařsá faulta UK, Praha Teore Máme nezávslých výběrů, > Mají rozsahy n, teré obecně nemusí být stejné V aždém z nch známe průměr a rozptyl

Více

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1 Logistická regrese Menu: QCExpert Regrese Logistická Modul Logistická regrese umožňuje analýzu dat, kdy odezva je binární, nebo frekvenční veličina vyjádřená hodnotami 0 nebo 1, případně poměry v intervalu

Více

MOMENT SETRVAČNOSTI. Obecná část Pomocí Newtonova pohybového zákona síly můžeme odvodit pohybovou rovnici pro rotační pohyb:

MOMENT SETRVAČNOSTI. Obecná část Pomocí Newtonova pohybového zákona síly můžeme odvodit pohybovou rovnici pro rotační pohyb: MOMENT SETRVAČNOST Obecná část Pomocí Newtonova pohybového záona síly můžeme odvodit pohybovou rovnici pro rotační pohyb: dω M = = ε, (1) d t de M je moment vnější síly působící na těleso, ω úhlová rychlost,

Více

7. TRANSFORMÁTORY. 7.1 Štítkové údaje. 7.2 Měření odporů vinutí. 7.3 Měření naprázdno

7. TRANSFORMÁTORY. 7.1 Štítkové údaje. 7.2 Měření odporů vinutí. 7.3 Měření naprázdno 7. TRANSFORMÁTORY Pro zjednodušení budeme měření provádět na jednofázovém transformátoru. Na trojfázovém transformátoru provedeme pouze ontrolu jeho zapojení měřením hodinových úhlů. 7.1 Štítové údaje

Více

Základy vytěžování dat

Základy vytěžování dat Základy vytěžování dat předmět A7Bb36vyd Vytěžování dat Filip Železný, Miroslav Čepek, Radomír Černoch, Jan Hrdlička katedra kybernetiky a katedra počítačů ČVUT v Praze, FEL Evropský sociální fond Praha

Více

Využití expertního systému při odhadu vlastností výrobků

Využití expertního systému při odhadu vlastností výrobků Vužití epertního sstému při odhadu vlastností výrobů ibor Žá Abstrat. Článe se zabývá možností ja vužít fuzz epertní sstém pro popis vlastností výrobu. Důvodem tohoto přístupu je možnost vužití vágních

Více

Pokročilé neparametrické metody. Klára Kubošová

Pokročilé neparametrické metody. Klára Kubošová Pokročilé neparametrické metody Klára Kubošová Klasifikační a regresní lesy Pokročilé neparametrické metody Klasifikační a regresní lesy Klasifikační les Klasifikační les je klasifikační model vytvořený

Více

3. Mocninné a Taylorovy řady

3. Mocninné a Taylorovy řady 3. Mocninné a Taylorovy řady A. Záladní pojmy. Obor onvergence Mocninné řady jsou nejjednodušším speciálním případem funčních řad. Jsou to funční řady, jejichž členy jsou mocninné funce. V této apitole

Více

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili? Testování modelů a jejich výsledků Jak moc můžeme věřit tomu, co jsme se naučili? 2 Osnova Úvod různé klasifikační modely a jejich kvalita Hodnotící míry (kriteria kvality) pro zvolený model. Postup vyhodnocování

Více

Aplikovaná informatika. Podklady předmětu Aplikovaná informatika pro akademický rok 2013/2014 Radim Farana. Obsah. Detekce chyb

Aplikovaná informatika. Podklady předmětu Aplikovaná informatika pro akademický rok 2013/2014 Radim Farana. Obsah. Detekce chyb Podlady předmětu pro aademicý ro /4 Radim Farana Obsa Detece cyb, Hamminoa dálenost Kontrolní a samooprané ódy Lineární ódy Hamminoy ódy Opaoací ódy Cylicé ódy Detece cyb Množinu šec slo rodělíme na sloa

Více