PŘEDNÁŠKA KURZU MPOV

Rozměr: px
Začít zobrazení ze stránky:

Download "PŘEDNÁŠKA KURZU MPOV"

Transkript

1

2 PŘEDNÁŠKA KURZU MPOV Klasifikátory, strojové učení, automatické třídění P. Petyovský ( kancelář SD3.152, Technická 12, VUT v Brně rev

3 Motivace strojového učení Základní pojmy Strojové učení, znalost, inference, klasifikátor Příklady klasifikačních metod Lineární klasifikátor Bayesův klasifikátor Zlepšení přesnosti klasifikace - Boosting Metoda AdaBoost Principal components analysis (PCA, LDA) Markovovy modely Literatura, použité obrázky

4 MOTIVACE Jak definovat pojem strojové učení/rozpoznávání? Snaha matematicky popsat znalosti získané učením Snaha matematicky popsat proces rozhodování Snaha navrhnout univerzální postup jak získávat a znovupoužívat znalosti Strojové rozpoznávání Schopnost "učit se" tj. na základě příkladů si utvořit nový poznatek a umět ho aplikovat Schopnost určovat výsledek na základě vstupních údajů a získaných poznatků Schopnost univerzálního použití Vstupy Výstupy Učení se s učitelem Učení se bez učitele Numerické údaje Symbolické údaje Numerické údaje Symbolické údaje Stejná metoda pro různý počet vstupů a výstupů Stejná metoda pro různé úlohy

5 ZÁKLADNÍ POJMY Strojové učení Strojová klasifikace pattern recognition. Nauka o získávání a zpracování znalostí. data Algoritmus výsledek data Klasifikační algoritmus výsledek znalost Obr. 1 Srovnání přístupu ke klasickému zpracování dat a při strojové klasifikaci

6 ZÁKLADNÍ POJMY Znalost Informace o dané problematice. Další rozdělení: Mělká znalost vychází z pozorování skutečnosti, povrchní popis jevů. Hloubková znalost vyjadřuje vnitřní zákonitosti jevů (např. Ohmův zákon). Deklarativní znalost lze formálně zapsat jako pravidla (např. pravidla pro hraní šachu). Procedurální znalost znalost získaná opakovaným prováděním, cvičením (např. hraní šachu, řízení vozidla). Pozn.: Taková znalost obsahuje mnoho aspektů, pro potřeby strojového učení obtížně využitelné. (strategie, typické varianty atd.)

7 ZÁKLADNÍ POJMY Inference Postup k dosažení výsledku odvození. Základní typy inference jsou: dedukce, abdukce, indukce. Facts Theory Conclusion Dedukce pokud známe F, T a určujeme C. Vždy jistý správný výsledek (s ohledem na správnost T) (např. T: y=x 2 ; F:x=2 C:y=4). Abdukce proces, kdy známe C, T a hledáme F. Není vždy zaručen správný výsledek (např. T: y=x 2 ; C:y=9 F:x=3 nebo x=-3?). Indukce proces, kdy známe F, C a hledáme T. Není zaručen správný výsledek (např. F:x=3; C:y=9 T: y=x 2, y=3x, y=6+x atd..??)

8 ZÁKLADNÍ POJMY Klasifikátor Je algoritmus, který je při vhodné množině znalostí schopen úspěšně rozdělovat vstupní data s hodnotami atributů (příznaků) do výstupních předem zvolených skupin (tříd). Vhodná volba klasifikačního algoritmu představuje nutnou podmínku k úspěšné klasifikaci. X0,X1,X2,..., Xn příznaky (0-n) znalost Y=d(X) rozhodovací pravidlo Y0,Y1,Y2,..., Yr Obr. 2 - Vstupy a výstupy klasifikátoru klasifikované třídy (0-r)

9 ZÁKLADNÍ POJMY Úkoly strojového učení Zvolit, ověřit a implementovat: Vhodné příznaky, Klasifikační metodu, Metodu učení, vyhodnocení chyb klasifikace, Interpretaci výsledků učení, Realizaci klasifikátoru v cílové aplikaci.

10 ZÁKLADNÍ POJMY Postup použití vhodné klasifikační metody: 1. Učení generování znalostí (modelu) s ohledem na typ klasifikátoru. 2. Ověřování verifikace znalostí na jiných datech, než byly použity při učení a výpočet přesnosti klasifikace. 3. Klasifikace běžný provoz naučeného klasifikátoru.

11 ZÁKLADNÍ POJMY Určení přesnosti klasifikace Lze ji vyjádřit jako procentuální poměr mezi počtem správně zařazených vzorů k počtu všech předložených vzorů v testovací množině. δ klas = 100 N N ok celk [%] Pozn. V případě, že počet výstupních tříd klasifikátoru je roven dvěma (ano / ne), jedná se o tzv. úlohy dichotomické klasifikace. Pro dichotomické úlohy představuje chyba klasifikace 50% tzv. nenaučený klasifikátor (tj. klasifikátor odpovídající na předložené vzory naprosto náhodně).

12 ZÁKLADNÍ POJMY Kompletní a konzistentní model znalostí klasifikátoru Tyto pojmy představují popis modelu vzhledem k určité třídě: Kompletní model Učením vzniklá množina znalostí pokrývá všechny pozitivní případy, ale možná i některé negativní. Konzistentní model Učením vzniklá množina znalostí nepokrývá žádný negativní případ, ale možná nepokrývá i některé pozitivní.

13 ZÁKLADNÍ POJMY Kompletní a konzistentní model znalostí klasifikátoru Ideální separace prostoru atributů (ideální hranice klasifikace) X2 Naučená hranice klasifikace konzistentní vzhledem k Naučená hranice klasifikace Kompletní vzhledem k X1 Obr. 3 - Kompletní a konzistentní model znalostí

14 Přetrénování over-fitting klasifikátoru X2 Odchylka vzoru v trénovací množině vlivem chyby měření nebo šumu. Tyto vzory v trénovací množině chyběly, a proto se neúčastnily procesu učení. Přetrénovaný klasifikátor separoval prostor atributů takto. X1 Obr. 4 - Problém přetrénování klasifikátoru Na obrázku je patrný problém přetrénování klasifikátoru. Je tedy lépe netrvat na konzistenci (případně úplnosti) popisu, pokud to není nutné (brát ohled na aplikaci). Příliš přesný popis vzhledem k trénovací množině má velmi často nižší přesnost vzhledem k reálným datům.

15 ZÁKLADNÍ ROZDĚLENÍ Dle charakteru učení: KLASIFIKÁTORŮ Dávkové Zpracuje vždy celou cvičnou množinu naráz. Typické pro symbolické metody klasifikace. Inkrementální Cvičné příklady lze dodávat postupně, naučená znalost se podle nich průběžně aktualizuje. Typické pro statistické metody klasifikace. Inkrementální se zapomínáním Zapomínání částí znalostí se může jevit jako výhodné v případě, kdy je některý významný atribut skryt nebo jsou některé hodnoty atributů cvičné množiny zatíženy šumem více než jiné.

16 ZÁKLADNÍ ROZDĚLENÍ KLASIFIKÁTORŮ Dle použitých metod klasifikace: Symbolické Metody založené na rozhodovacích stromech (např. ID3, C4.5). Subsymbolické nebo také biologicky inspirované metody (např. neuronové sítě, genetické algoritmy). Statistické využívající regresní nebo jiné statistické metody (např. Bayesův odhad). Paměťové metody založené na ukládání instancí tříd (např. IBL).

17 PŘÍKLADY METOD KLASIFIKACE Lineární klasifikátor Bayesův klasifikátor Boosting metody pro klasifikaci Předzpracování prostoru příznaků (PCA, LDA) Markovovy modely

18 LINEÁRNÍ KLASIFIKÁTOR Představuje základní klasifikační metodu založenou na rozdělení prostoru příznaků pomocí po částech lineárními úseky. Prostor příznaků je obecně prostor s mnoha dimenzemi proto hovoříme o separaci prostoru příznaků nadrovinami (popř. nadplochami). X2 Y0 Y2 Y1 Naučená hranice klasifikace. Vytvoření rozdělující nadroviny (nadplochy). Obr. 5 - Příklad lineárně separabilního prostoru příznaků X1

19 x1 g1 x2 g2 sr yr xn sign gn Obr. 6 - Schéma lineárního klasifikátoru s r = g 1 x 1 + g 2 x g n x n Úkolem učení klasifikátoru je zvolit vhodné konstanty g (případně parametry funkce sign). Pokud lze tuto podmínku separace prostoru (na lineární oblasti patřící do jedné třídy) splnit (při chybě klasifikace 0%), hovoříme o lineární separabilitě prostoru příznaků.

20 Návrh lineárního klasifikátoru je možné si také představit jako výběr vhodného reprezentanta třídy v prostoru příznaků (tzv. etalon, normál). Proces učení potom představuje výběr vhodného etalonu zastupujícího celou třídu. Proces klasifikace neznámého vzoru lze v tomto případě převést na hledání nejmenší vzdálenosti neznámého vzoru od některého z etalonů tříd. Neznámý vzor je následně klasifikován do té třídy, od které má nejmenší vzdálenost. Funkce pro určení míry vzdálenosti se nazývá diskriminační funkce, a má nejčastěji tvar eukleidovské vzdálenosti. k ~ V s ~ Xk = q( ~ V s ~ X)T ( ~ V s ~ X) Kde V s představuje informaci o poloze s-tého etalonu v prostoru příznaků. X představuje informaci o poloze klasifikovaného vzoru.

21 Úkolem je nalézt minimum vzdálenosti od některého z etalonů k V ~ s Xk ~ = q( V ~ s X)T ~ ( V ~ s X) ~ min k V ~ s Xk ~ =min 2 T ~Vs Vs ~ 2( V ~ T s X)+ ~ XT ~ ~X... = X ~ T ~X T 2 max ~Vs X ~ 1 2 ( V ~ T s Vs ~ ) =... Výraz X T X má pro každý z etalonů konstantní hodnotu, proto ho lze při výpočtu maxima odstranit (pozn. Stejně jako násobení výsledku konstantou). Výsledná diskriminační funkce lze tedy zapsat ve tvaru: min k ~ V s ~ Xk 2 =min T ~Vs X ~ 1 2 ( V ~ T s Vs ~ ) Hodnota výrazu (1/2 V s T V s ) závisí pouze na poloze daného etalonu, proto je možné ji v rámci zrychlení klasifikace vypočítat předem a uložit společně s informacemi o poloze etalonu v prostoru příznaků.

22 Úprava pro dichotomické úlohy Pro dichotomické úlohy klasifikace není nutné vyhodnocovat hodnoty diskriminační funkce vždy pro oba etalony. Stačí vyhodnotit rozdíl obou diskriminačních funkcí a klasifikovat vzor na základě znaménka toho rozdílu. sign ( V ~ T 0 T ~V 1 ) X ~ 1 2 ( V ~ T T 0 V0 ~ V1 ~ V1 ~ )

23 BAYESŮV KLASIFIKÁTOR Patří do skupiny statistických klasifikátorů, umožňuje inkrementální i dávkové učení. Naučená znalost (model) je reprezentován pravděpodobnostním rozložením tříd. Při klasifikaci je zvolena třída s nejvyšší pravděpodobností. Podmíněná pravděpodobnost závislá na konjunkci jevů se nahradí funkcí podmíněných pravděpodobností jednoduchých jevů. Proto metoda požaduje úplnou vzájemnou statistickou nezávislost atributů.

24 BAYESŮV KLASIFIKÁTOR Učení Pro třídy C i, příznaky A j a jejich hodnoty V jk (tzn. k-tá hodnota j-tého příznaku) se zaznamenává do tabulky, kolikrát se ve cvičné množině: N i,j,k vyskytl jev, kdy současně: třída C i a hodnota V j,k, přesněji A j = V j,k Pro klasifikaci jsou dále ukládány tyto hodnoty: T i T j,k T - počet případů třídy C i - počet případů, kdy A = V j j,k - celkový počet příkladů. Klasifikace Za předpokladu, že neznámá instance má hodnoty V 1,a,V 2,b,...,V N,q, je pravděpodobnost, že instance patří do třídy C i, určena podmíněnou pravděpodobností P(C i V 1,a, V 2,b,..., V N,q ). Pro empirické získání této pravděpodobnosti obvykle nejsou k dispozici potřebná trénovací data. Proto se tato pravděpodobnost vypočítá na základě dílčích empirických pravděpodobností P(C i V jk ), resp. P(V jk C i ).

25 BAYESŮV KLASIFIKÁTOR Pro dosti vysoká čísla T, N ijk, T jk, T i : P(C i ) = T i / T (1) P(V jk ) = T jk / T (2) P(C i V jk ) = N ijk / T jk (3) P(V jk C i ) = N ijk / T i (4) Za předpokladu nezávislosti příznaků, lze dosadit za: P(C i V 1,a,V 2,b,...,V N,q ) = P(C i ) * N j=1 ( P(Ci V j,k ) / P(C i ) ), (1.1) nebo: P(C i V 1,a,V 2,b,...,V N,q ) = P(C i ) * N j=1 ( P(Vj,k C i ) / P(V j,k )), kde N je počet příznaků.

26 BAYESŮV KLASIFIKÁTOR Modifikovaná varianta: Obecněji lze (1) a (3) nahradit heuristikami (dle Cestnik, ECAI-90): P(C i ) = (T i + 1) / (T + M), N i,j,k + M * P(C i ) P(C i V j,k ) = , T j,k + M Vhodné pro případy, kdy v trénovací množině není zastoupena nějaká třída, hodnota příznaku nebo třída s hodnotou příznaku. M - nutno nastavit experimentálně, doporučováno M=2.

27 Příklad: baterie: P,W {silná (power), resp. slabá (weak)} kontakty: C,D {čisté (clean), resp. znečištěné (dirty)} třída: +,- (startuje, nestartuje) Trénovací množina: baterie kontakty třída ==================================== P C + P D + P C - W C + P D + W C + P D - P D + W D - W C + Učením získaná tabulka pravděpodobností (báze znalostí): N i,j,k třídy: T j,k : + - (hodnota) baterie P baterie W kontakty C kontakty D T i (třídy) Použití např.: Jaká je šance nastartování v případě, že baterie je slabá (W) a kontakty jsou znečištěné (D) dle (1.1): P(+ W,D) = P(+) * P(+ V bat,w )/ P(+) * P(+ V kont,d )/ P(+) =... = 64.3% P( - W,D) =... = 33.3% Pozn. Z výsledků pravděpodobnosti opačných jevů je patrné, že trénovací množina nesplňuje dokonale podmínku statistické nezávislosti příznaků.

28 BOOSTING Zlepšení přesnosti klasifikace - Boosting Boosting metody představují tzv. meta algoritmy učení tj. metody jak co nejlépe učit klasifikátory. Boosting zavádí pojem weak learner (špatný žák) tj. klasifikátor který má jen o něco lepší úspěšnost klasifikace než klasifikátor který klasifikuje naprosto nahodile (nenaučený klasifikátor). Boosting metody jak spojit více špatných klasifikátorů jednoho tzv. úspěšnějšího klasifikátoru (tzv. Strong classifier). Metoda tedy představuje vylepšené učení využívající obecně mnoha klasifikátorů učených nad stejnými vstupními daty.

29 ADABOOST Adaptive Boosting Yoav Freund, Robert Schapire, (obdrželi v roce 2003 Gödel prize) Určena pro dichotomické úlohy klasifikace. Je definována trénovací množina: (x 1,y 1 ),...,(x m,y m ); x i 2 X; y i 2 Y 7! { 1, +1} Je definována množina špatných žáků (klasifikátorů): h t : X 7! { 1, +1}; h t 2 H Hledám výsledný klasifikátor K(x) (tzv. Strong classifier) ve tvaru: X T K(x) =sign t=1 t h t (x)

30 ADABOOST Vlastnosti, výhody a nevýhody metody Výhody: Jednoduchá metoda (lze implementovat i v HW), Neklade prakticky žádné požadavky na klasifikátory (jen podmínku o weak learner ). Nevýhody: Velká citlivost na šum, Citlivost na přeučení (over-fitting).

31 Popis algoritmu metody AdaBoost 0) Inicializace: D 1 (i) = 1 m ; i =1,...,m t =1,...,T 1) Hledám klasifikátor: h t : X 7! { který vykazuje nejmenší chybu klasifikace vzhledem k váhám D t (i) h t = arg ht 2H(min t ) mx t = D t (i)bool y i 6= h t (x i ) i=1 1, +1}; h t 2 H Pozn.: bool() představuje funkci vracející 1 nebo 0 dle vyhodnocené podmínky (platí/neplatí) 2) Pokud ε t < 0.5 pokračuj, jinak ukonči učení 3) Urči váhu klasifikátoru α t, dle: t = 1 2 ln 1 t = R t t 4) Přepočítej váhy trénovací množiny dle: D t+1 (i) = D t(i)e ty i h t (x i ) Z t = mx i=1 Z t D t (i)e ty i h t (x i ) 5) Opakuj 1, (dokud platí podmínka ve 2)

32 PŘEDZPRACOVÁNÍ PŘÍZNAKŮ Normalizace, regularizace, transformace prostoru příznaků Využitelná k omezení dimenze a transformaci prostoru příznaků ještě před vstupem do klasifikátoru. Principal components analysis (PCA, LDA) Patří do skupiny operací pro předzpracování příznaků, využívá faktorovou analýzu dat. Definujme pojmy: eigenvector, eigenspace. Principem metody je volba nejdůležitějších proměnných popisující dostatečně dané třídy. Na základě hledání vhodných statických veličin.

33 Na obrázku vidíme závislost X 1 a X 2 pro dvě odlišné třídy. Pro daná X 1 a X 2 je víceméně jednoznačně patrná třída, ale pro správné přiřazení je potřebná znalost obou proměnných. X2 X1 Obr. 7 - Příklad normalizovatelného prostoru příznaků

34 Správnou volbou transformace souřadnicového systému dokážeme získat informaci, zda daný prvek patří do té či oné třídy již z jedné proměnné nebo naopak dokážeme uchovat v jedné proměnné maximum dat. X2 X2 X1 X1 Obr. 8 - Příklad normalizace prostoru příznaků a), b) Existují dvě možnosti jak vhodně rotovat souřadnicový systém tak, aby: a) byl směrodatný pro klasifikaci b) byl uchován největší rozptyl hodnot

35 Je třeba si uvědomit, že část informace byla nenávratně ztracena. V našem případě bychom pro potřeby rozdělení do tříd ukládali pouze osu X 1, ale to neznamená, že osa X 2 nemá žádnou informační hodnotu. Záleží na konkrétním využití, zda tuto informaci můžeme postrádat. X2 X1 Obr. 9 - Příklad transformace prostoru příznaků a volby dominantního příznaku X1

36 Obr Projekce LDA a PCA v prostoru příznaků LDA - zohledňuje pouze celkové rozložení dat, využívá informaci o třídě, (do které prvky náleží). Maximalizuje rozdíl mezi třídami a naopak minimalizuje rozdíl v rámci skupiny. Vhodné pro klasifikaci. PCA - minimalizuje rozdíly mezi třídami a maximalizuje rozdíly v rámci skupiny. Vhodné např. pro kompresi dat

37 MARKOVOVY MODELY Andrej Andrejevič Markov Pojem konečný stavový automat Metoda pro detekci a vyhodnocení změn stavu systému popsaného pomocí pravděpodobnostního modelu. Předpokládá omezené podmínky pro změnu stavu konečného stavového automatu. Markovův předpoklad v teorii pravděpodobnosti je označen náhodný proces jako Markovův, pokud následující stav závisí pouze na nynějším stavu a nezávisí na stavech dřívějších. Markovův proces je stochastický proces, který má Markovovu vlastnost.

38 Markovovy modely (MM Markov Models) jsou modely s konečným počtem stavů, kde přechod mezi stavy je vyjádřen pravděpodobností. Mimo modely s diskrétním časem existují také modely se spojitým časem. Ergodické Všechny stavy jsou mezi sebou propojené přechody. Obr Příklad ergodického markovova modelu Levo-pravé v některých případech lze použít jednodušší model, kde nelze přecházet mezi všemi stavy, ale pouze mezi vedlejšími stavy v jednom směru. Tento model se používá např. při rozpoznávání řeči. Obr Příklad levo-pravého markovova modelu

39 Příklad: Model počasí Vytvořme jednoduchý model počasí. Kterýkoliv den můžeme popsat jedním ze tří stavů: stav 1: deštivo stav 2: zataženo stav 3: slunečno Přechody mezi stavy lze popsat maticí přechodů s hodnotami pravděpodobnost: (součet hodnot v řádku je rovna 1) A = {a i } = Obr Model změny stavu počasí Základní možné výpočty (využitelné při klasifikaci): Jaká je pravděpodobnost, že následujících osm dní bude tento průběh počasí: slunečno, slunečno, slunečno, deštivo, deštivo, slunečno, zataženo, slunečno?

40 Skryté Markovovy modely (HMM Hidden Markov Models) jsou Markovovy modely, kde některé stavy a přechody mezi nimi není možné pozorovat (tzv. skryté stavy a přechody). Jde tedy o konečný stavový automat, který lze formálně zapsat jako: =(N, M, A, B, ) N skryté stavy (vektor) M pozorovatelné stavy (vektor) A pravděpodobnosti přechodu mezi skrytými stavy (matice) B pravděpodobnosti přechodů k pozorovatelným stavům (matice)! počáteční pravděpodobnosti stavů (vektor)

41 DOTAZY? 41

42 LITERATURA, POUŽITÉ OBRÁZKY [1] Jan J.: Poznámky ke kurzu Digitální zpracování a analýza obrazového signálu, FEKT [2] Jan J., Dub P.: Poznámky ke kurzu: Vyšší metody číslicového zpracování obrazu, FEKT [3] Šonka M., Hlaváč V.: Počítačové vidění, Computer press 1992, ISBN [4] Hlaváč V., Sedláček M.: Zpracování signálů a obrazů, skriptum ČVUT [4] Žára J., Beneš B., Felkel P.: Moderní počítačová grafika, Computer press 2004, ISBN [5] Žára J. a kol.: Počítačová grafika - Principy a algoritmy, Grada 1992, ISBN [6] Skala V. Světlo, barvy a barevné systémy v počítačové grafice; Academia 1993; ISBN [7] Wiley InterScience: Encyclopedia of Imaging Science and Technology, www3.interscience.wiley.com [8] Wikipedia, The free encyclopedia, [9] Pavlíčková.: Poznámky ke kurzu strojové učení, FEKT [10] Hajda J., Čírtek J.: Markovovy modely, Skryté Markovovy modely, FEKT [11] Krejčí P., Kučka P.: Diagonalizace a omezení dimenzí (PCA, LDA, HLDA), FEKT 2005.

43 DĚKUJI ZA POZORNOST

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

PŘEDNÁŠKA KURZU MPOV

PŘEDNÁŠKA KURZU MPOV 1 PŘEDNÁŠKA KURZU MPOV Strojové rozpoznávání kódů a znaků P. Petyovský (email: petyovsky@feec.vutbr.cz) kancelář SD3.152, Technická 12 2 rev. 2015.3 Pojmy a opakování Strojové čtení Braillova písma Popis

Více

Úloha - rozpoznávání číslic

Úloha - rozpoznávání číslic Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

Trénování sítě pomocí učení s učitelem

Trénování sítě pomocí učení s učitelem Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup

Více

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.

Více

Přednáška 13 Redukce dimenzionality

Přednáška 13 Redukce dimenzionality Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /

Více

Učící se klasifikátory obrazu v průmyslu

Učící se klasifikátory obrazu v průmyslu Učící se klasifikátory obrazu v průmyslu FCC průmyslové systémy s.r.o. FCC průmyslové systémy je technicko obchodní společností, působící v oblasti průmyslové automatizace. Tvoří ji dvě základní divize:

Více

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Přednáška kurzu MPOV. Klasifikátory, strojové učení, automatické třídění 1

Přednáška kurzu MPOV. Klasifikátory, strojové učení, automatické třídění 1 Přednáška kurzu MPOV Klasifikáory, srojové učení, auomaické řídění 1 P. Peyovský (email: peyovsky@feec.vubr.cz), kancelář E530, Inegrovaný objek - 1/25 - Přednáška kurzu MPOV... 1 Pojmy... 3 Klasifikáor...

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ Metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz LITERATURA Holčík, J.: přednáškové prezentace Holčík, J.: Analýza a klasifikace signálů.

Více

Úvod do optimalizace, metody hladké optimalizace

Úvod do optimalizace, metody hladké optimalizace Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

Chyby měření 210DPSM

Chyby měření 210DPSM Chyby měření 210DPSM Jan Zatloukal Stručný přehled Zdroje a druhy chyb Systematické chyby měření Náhodné chyby měření Spojité a diskrétní náhodné veličiny Normální rozdělení a jeho vlastnosti Odhad parametrů

Více

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

Obsah přednášky Jaká asi bude chyba modelu na nových datech? Obsah přednášky Jaká asi bude chyba modelu na nových datech? Chyba modelu Bootstrap Cross Validation Vapnik-Chervonenkisova dimenze 2 Chyba skutečná a trénovací Máme 30 záznamů, rozhodli jsme se na jejich

Více

Algoritmy a struktury neuropočítačů ASN - P11

Algoritmy a struktury neuropočítačů ASN - P11 Aplikace UNS při rozpoznání obrazů Základní úloha segmentace obrazu rozdělení obrazu do několika významných oblastí klasifikační úloha, clusterová analýza target Metody Kohonenova metoda KSOM Kohonenova

Více

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ Michal Kořenář 1 Abstrakt Rozvoj výpočetní techniky v poslední době umožnil také rozvoj výpočetních metod, které nejsou založeny na bázi

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost. Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační

Více

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Vytěžování dat Miroslav Čepek, Filip Železný Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme

Více

Lineární diskriminační funkce. Perceptronový algoritmus.

Lineární diskriminační funkce. Perceptronový algoritmus. Lineární. Perceptronový algoritmus. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics P. Pošík c 2012 Artificial Intelligence 1 / 12 Binární klasifikace

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz III. PŘÍZNAKOVÁ KLASIFIKACE - ÚVOD PŘÍZNAKOVÝ POPIS Příznakový obraz x zpracovávaných

Více

Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti Vytěžování Dat Přednáška 12 Kombinování modelů Miroslav Čepek Pavel Kordík a Jan Černý (FIT) Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL)

Více

Využití metod strojového učení v bioinformatice David Hoksza

Využití metod strojového učení v bioinformatice David Hoksza Využití metod strojového učení v bioinformatice David Hoksza SIRET Research Group Katedra softwarového inženýrství, Matematicko-fyzikální fakulta Karlova Univerzita v Praze Bioinformatika Biologické inspirace

Více

Markovské metody pro modelování pravděpodobnosti

Markovské metody pro modelování pravděpodobnosti Markovské metody pro modelování pravděpodobnosti rizikových stavů 1 Markovský řetězec Budeme uvažovat náhodný proces s diskrétním časem (náhodnou posloupnost) X(t), t T {0, 1, 2,... } s konečnou množinou

Více

Statistika. Regresní a korelační analýza Úvod do problému. Roman Biskup

Statistika. Regresní a korelační analýza Úvod do problému. Roman Biskup Statistika Regresní a korelační analýza Úvod do problému Roman Biskup Jihočeská univerzita v Českých Budějovicích Ekonomická fakulta (Zemědělská fakulta) Katedra aplikované matematiky a informatiky 2008/2009

Více

Umělé neuronové sítě

Umělé neuronové sítě Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,

Více

Usuzování za neurčitosti

Usuzování za neurčitosti Usuzování za neurčitosti 25.11.2014 8-1 Usuzování za neurčitosti Hypotetické usuzování a zpětná indukce Míry postačitelnosti a nezbytnosti Kombinace důkazů Šíření pravděpodobnosti v inferenčních sítích

Více

oddělení Inteligentní Datové Analýzy (IDA)

oddělení Inteligentní Datové Analýzy (IDA) Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {

Více

Matematika pro geometrickou morfometrii

Matematika pro geometrickou morfometrii Matematika pro geometrickou morfometrii Václav Krajíček Vaclav.Krajicek@mff.cuni.cz Department of Software and Computer Science Education Faculty of Mathematics and Physics Charles University Přednáška

Více

SIGNÁLY A LINEÁRNÍ SYSTÉMY

SIGNÁLY A LINEÁRNÍ SYSTÉMY SIGNÁLY A LINEÁRNÍ SYSTÉMY prof. Ing. Jiří Holčík, CSc. holcik@iba.muni.cziba.muni.cz II. SIGNÁLY ZÁKLADNÍ POJMY SIGNÁL - DEFINICE SIGNÁL - DEFINICE Signál je jev fyzikální, chemické, biologické, ekonomické

Více

PŘEDNÁŠKA KURZU MPOV

PŘEDNÁŠKA KURZU MPOV 1 PŘEDNÁŠKA KURZU MPOV Zpracování obrazu v dopravních aplikacích P. Petyovský (email: petyovsky@feec.vutbr.cz) kancelář SD3.152, Technická 12 2 rev. 2015.4 Pojmy a opakování Definice dopravní telematiky,

Více

2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2

2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2 Výpočet transformačních koeficinetů vybraných 2D transformací Jan Ježek červen 2008 Obsah Odvození transformačního klíče vybraných 2D transformací 2 Meto vyrovnání 2 2 Obecné vyjádření lineárních 2D transformací

Více

8 Střední hodnota a rozptyl

8 Střední hodnota a rozptyl Břetislav Fajmon, UMAT FEKT, VUT Brno Této přednášce odpovídá kapitola 10 ze skript [1]. Také je k dispozici sbírka úloh [2], kde si můžete procvičit příklady z kapitol 2, 3 a 4. K samostatnému procvičení

Více

Pokročilé neparametrické metody. Klára Kubošová

Pokročilé neparametrické metody. Klára Kubošová Pokročilé neparametrické metody Klára Kubošová Pokročilé neparametrické metody Výuka 13 přednášek doplněných o praktické cvičení v SW Úvod do neparametrických metod + princip rozhodovacích stromů Klasifikační

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology

Více

Aplikovaná numerická matematika

Aplikovaná numerická matematika Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních

Více

SIGNÁLY A LINEÁRNÍ SYSTÉMY

SIGNÁLY A LINEÁRNÍ SYSTÉMY SIGNÁLY A LINEÁRNÍ SYSTÉMY prof. Ing. Jiří Holčík, CSc. holcik@iba.muni.cz II. SIGNÁLY ZÁKLADNÍ POJMY SIGNÁL - DEFINICE SIGNÁL - DEFINICE Signál je jev fyzikální, chemické, biologické, ekonomické či jiné

Více

Teorie rozhodování (decision theory)

Teorie rozhodování (decision theory) Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Teorie pravděpodobnosti (probability theory) popisuje v co má agent věřit na základě pozorování. Teorie

Více

Pravděpodobnost, náhoda, kostky

Pravděpodobnost, náhoda, kostky Pravděpodobnost, náhoda, kostky Radek Pelánek IV122, jaro 2015 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností krátké

Více

U Úvod do modelování a simulace systémů

U Úvod do modelování a simulace systémů U Úvod do modelování a simulace systémů Vyšetřování rozsáhlých soustav mnohdy nelze provádět analytickým výpočtem.často je nutné zkoumat chování zařízení v mezních situacích, do kterých se skutečné zařízení

Více

Státnice odborné č. 20

Státnice odborné č. 20 Státnice odborné č. 20 Shlukování dat Shlukování dat. Metoda k-středů, hierarchické (aglomerativní) shlukování, Kohonenova mapa SOM Shlukování dat Shluková analýza je snaha o seskupení objektů do skupin

Více

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti Vytěžování Dat Přednáška 9 Lineární klasifikátor, rozšíření báze, LDA, logistická regrese Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Více

Detekce interakčních sil v proudu vozidel

Detekce interakčních sil v proudu vozidel Detekce interakčních sil v proudu vozidel (ANEB OBECNĚJŠÍ POHLED NA POJEM VZDÁLENOSTI V MATEMATICE) Doc. Mgr. Milan Krbálek, Ph.D. Katedra matematiky Fakulta jaderná a fyzikálně inženýrská České vysoké

Více

Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy

Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Autor práce : RNDr. Ivo Beroun,CSc. Vedoucí práce: prof. RNDr. Milan Meloun, DrSc. PROFILOVÁNÍ Profilování = klasifikace a rozlišování

Více

8.3). S ohledem na jednoduchost a názornost je výhodné seznámit se s touto Základní pojmy a vztahy. Definice

8.3). S ohledem na jednoduchost a názornost je výhodné seznámit se s touto Základní pojmy a vztahy. Definice 9. Lineární diferenciální rovnice 2. řádu Cíle Diferenciální rovnice, v nichž hledaná funkce vystupuje ve druhé či vyšší derivaci, nazýváme diferenciálními rovnicemi druhého a vyššího řádu. Analogicky

Více

Neuronové sítě v DPZ

Neuronové sítě v DPZ Univerzita J. E. Purkyně v Ústí nad Labem Fakulta životního prostředí Neuronové sítě v DPZ Seminární práce z předmětu Dálkový průzkum Země Vypracovali: Jan Lantora Rok: 2006 Zuzana Vašková Neuronové sítě

Více

Pravděpodobnost, náhoda, kostky

Pravděpodobnost, náhoda, kostky Pravděpodobnost, náhoda, kostky Radek Pelánek IV122 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností připomenutí, souvislosti

Více

Rozdělování dat do trénovacích a testovacích množin

Rozdělování dat do trénovacích a testovacích množin Rozdělování dat do trénovacích a testovacích množin Marcel Jiřina Rozpoznávání je důležitou metodou při zpracování reálných úloh. Rozpoznávání je definováno dvěma kroky a to pořízením dat o reálném rozpoznávaném

Více

Jasové transformace. Karel Horák. Rozvrh přednášky:

Jasové transformace. Karel Horák. Rozvrh přednášky: 1 / 23 Jasové transformace Karel Horák Rozvrh přednášky: 1. Úvod. 2. Histogram obrazu. 3. Globální jasová transformace. 4. Lokální jasová transformace. 5. Bodová jasová transformace. 2 / 23 Jasové transformace

Více

Strojové učení Marta Vomlelová

Strojové učení Marta Vomlelová Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer

Více

Zpracování digitalizovaného obrazu (ZDO) - Popisy III

Zpracování digitalizovaného obrazu (ZDO) - Popisy III Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování

Více

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti. Přednáška č. 1 Úvod do statistiky a počtu pravděpodobnosti Statistika Statistika je věda a postup jak rozvíjet lidské znalosti použitím empirických dat. Je založena na matematické statistice, která je

Více

Markovovy modely v Bioinformatice

Markovovy modely v Bioinformatice Markovovy modely v Bioinformatice Outline Markovovy modely obecně Profilové HMM Další použití HMM v Bioinformatice Analýza biologických sekvencí Biologické sekvence: DNA,RNA,protein prim.str. Sekvenování

Více

Úvod do modelování a simulace. Ing. Michal Dorda, Ph.D.

Úvod do modelování a simulace. Ing. Michal Dorda, Ph.D. Úvod do modelování a simulace systémů Ing. Michal Dorda, Ph.D. 1 Základní pojmy Systém systémem rozumíme množinu prvků (příznaků) a vazeb (relací) mezi nimi, která jako celek má určité vlastnosti. Množinu

Více

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY

Více

7. Rozdělení pravděpodobnosti ve statistice

7. Rozdělení pravděpodobnosti ve statistice 7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,

Více

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory Zkouška ověřuje znalost základních pojmů, porozumění teorii a schopnost aplikovat teorii při

Více

Strojové učení se zaměřením na vliv vstupních dat

Strojové učení se zaměřením na vliv vstupních dat Strojové učení se zaměřením na vliv vstupních dat Irina Perfilieva, Petr Hurtík, Marek Vajgl Centre of excellence IT4Innovations Division of the University of Ostrava Institute for Research and Applications

Více

Úvod do zpracování signálů

Úvod do zpracování signálů 1 / 25 Úvod do zpracování signálů Karel Horák Rozvrh přednášky: 1. Spojitý a diskrétní signál. 2. Spektrum signálu. 3. Vzorkovací věta. 4. Konvoluce signálů. 5. Korelace signálů. 2 / 25 Úvod do zpracování

Více

Statistická analýza dat

Statistická analýza dat Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte

Více

AVDAT Mnohorozměrné metody, metody klasifikace

AVDAT Mnohorozměrné metody, metody klasifikace AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných

Více

ZÁKLADY AUTOMATICKÉHO ŘÍZENÍ

ZÁKLADY AUTOMATICKÉHO ŘÍZENÍ VYSOKÁ ŠKOLA BÁŇSKÁ TECHNICKÁ UNIVERZITA OSTRAVA FAKULTA STROJNÍ ZÁKLADY AUTOMATICKÉHO ŘÍZENÍ 1. týden doc. Ing. Renata WAGNEROVÁ, Ph.D. Ostrava 2013 doc. Ing. Renata WAGNEROVÁ, Ph.D. Vysoká škola báňská

Více

MÍRY ZÁVISLOSTI (KORELACE A REGRESE)

MÍRY ZÁVISLOSTI (KORELACE A REGRESE) zhanel@fsps.muni.cz MÍRY ZÁVISLOSTI (KORELACE A REGRESE) 2.5 MÍRY ZÁVISLOSTI 2.5.1 ZÁVISLOST PEVNÁ, VOLNÁ, STATISTICKÁ A KORELAČNÍ Jednorozměrné soubory - charakterizovány jednotlivými statistickými znaky

Více

Vojtěch Franc. Biometrie ZS Poděkování Janu Šochmanovi za slajdy vysvětlující AdaBoost

Vojtěch Franc. Biometrie ZS Poděkování Janu Šochmanovi za slajdy vysvětlující AdaBoost Rozpoznávání tváří I Vojtěch Franc Centrum strojového vnímání, ČVUT FEL Praha Biometrie ZS 2013 Poděkování Janu Šochmanovi za slajdy vysvětlující AdaBoost Úlohy rozpoznávání tváří: Detekce Cíl: lokalizovat

Více

Diskrétní náhodná veličina

Diskrétní náhodná veličina Lekce Diskrétní náhodná veličina Výsledek náhodného pokusu může být vyjádřen slovně to vede k zavedení pojmu náhodného jevu Výsledek náhodného pokusu můžeme někdy vyjádřit i číselně, což vede k pojmu náhodné

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti Vytěžování Dat Přednáška 9 Lineární klasifikátor, rozšíření báze, LDA, logistická regrese Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Více

KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ

KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ Marie Richterová 1, David Juráček 2 1 Univerzita obrany, Katedra KIS, 2 PČR MŘ Brno Abstrakt Článek se zabývá rozpoznáváním analogových a diskrétních

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou

Více

Klasifikace předmětů a jevů

Klasifikace předmětů a jevů Klasifikace předmětů a jevů 1. Úvod Rozpoznávání neboli klasifikace je základní znak lidské činnosti. Rozpoznávání (klasifikace) předmětů a jevů spočívá v jejich zařazování do jednotlivých tříd. Třídou

Více

TECHNICKÁ UNIVERZITA V LIBERCI

TECHNICKÁ UNIVERZITA V LIBERCI TECHNICKÁ UNIVERZITA V LIBERCI Fakulta mechatroniky, informatiky a mezioborových studií Základní pojmy diagnostiky a statistických metod vyhodnocení Učební text Ivan Jaksch Liberec 2012 Materiál vznikl

Více

Rosenblattův perceptron

Rosenblattův perceptron Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného

Více

3. Vícevrstvé dopředné sítě

3. Vícevrstvé dopředné sítě 3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze

Více

řešeny numericky 6 Obyčejné diferenciální rovnice řešeny numericky

řešeny numericky 6 Obyčejné diferenciální rovnice řešeny numericky řešeny numericky řešeny numericky Břetislav Fajmon, UMAT FEKT, VUT Brno Na minulé přednášce jsme viděli některé klasické metody a přístupy pro řešení diferenciálních rovnic: stručně řečeno, rovnice obsahující

Více

LDA, logistická regrese

LDA, logistická regrese Vytěžování Dat Přednáška 9 Lineární klasifikátor, rozšíření báze, LDA, logistická regrese Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Více

Charakterizují kvantitativně vlastnosti předmětů a jevů.

Charakterizují kvantitativně vlastnosti předmětů a jevů. Měřicí aparatura 1 / 34 Fyzikální veličiny Charakterizují kvantitativně vlastnosti předmětů a jevů. Můžeme je dělit: Podle rozměrů: Bezrozměrné (index lomu, poměry) S rozměrem fyzikální veličiny velikost

Více

Numerická stabilita algoritmů

Numerická stabilita algoritmů Numerická stabilita algoritmů Petr Tichý 9. října 2013 1 Numerická stabilita algoritmů Pravidla v konečné aritmetice Pro počítání v konečné aritmetice počítače platí určitá pravidla, která jsou důležitá

Více

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015 Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační

Více

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně Aplikace UNS v biomedicíně aplikace v medicíně postup při zpracování úloh Aplikace UNS v medicíně Důvod: nalezení exaktnějších, levnějších a snadnějších metod určování diagnóz pro lékaře nalezení šetrnějších

Více

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík,, CSc. NEURONOVÉ SÍTĚ otázky a odpovědi 1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma

Více

Úvod do teorie měření. Eva Hejnová

Úvod do teorie měření. Eva Hejnová Úvod do teorie měření Eva Hejnová Literatura: Novák, R. Úvod do teorie měření. Ústí nad Labem: UJEP, 2003 Sprušil, B., Zieleniecová, P.: Úvod do teorie fyzikálních měření. Praha: SPN, 1985 Brož, J. a kol.

Více

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci

Více

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová

Více

Následující text je součástí učebních textů předmětu Bi0034 Analýza a klasifikace dat a je určen

Následující text je součástí učebních textů předmětu Bi0034 Analýza a klasifikace dat a je určen 11. Klasifikace V této kapitole se seznámíme s účelem, principy a jednotlivými metodami klasifikace dat, jež tvoří samostatnou rozsáhlou oblast analýzy dat. Klasifikace umožňuje určit, do které skupiny

Více

Regresní analýza 1. Regresní analýza

Regresní analýza 1. Regresní analýza Regresní analýza 1 1 Regresní funkce Regresní analýza Důležitou statistickou úlohou je hledání a zkoumání závislostí proměnných, jejichž hodnoty získáme při realizaci experimentů Vzhledem k jejich náhodnému

Více

Náhodné signály. Honza Černocký, ÚPGM

Náhodné signály. Honza Černocký, ÚPGM Náhodné signály Honza Černocký, ÚPGM Signály ve škole a v reálném světě Deterministické Rovnice Obrázek Algoritmus Kus kódu } Můžeme vypočítat Málo informace! Náhodné Nevíme přesně Pokaždé jiné Především

Více

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu. 6. NÁHODNÝ VEKTOR Průvodce studiem V počtu pravděpodobnosti i v matematické statistice se setkáváme nejen s náhodnými veličinami, jejichž hodnotami jsou reálná čísla, ale i s takovými, jejichž hodnotami

Více

Pravděpodobně skoro správné. PAC učení 1

Pravděpodobně skoro správné. PAC učení 1 Pravděpodobně skoro správné (PAC) učení PAC učení 1 Výpočetní teorie strojového učení Věta o ošklivém kačátku. Nechť E je klasifikovaná trénovací množina pro koncept K, který tvoří podmnožinu konečného

Více

P13: Statistické postupy vyhodnocování únavových zkoušek, aplikace normálního, Weibullova rozdělení, apod.

P13: Statistické postupy vyhodnocování únavových zkoušek, aplikace normálního, Weibullova rozdělení, apod. P13: Statistické postupy vyhodnocování únavových zkoušek, aplikace normálního, Weibullova rozdělení, apod. Matematický přístup k výsledkům únavových zkoušek Náhodnost výsledků únavových zkoušek. Únavové

Více

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet. Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu

Více

i=1 Přímka a úsečka. Body, které leží na přímce procházející body a a b můžeme zapsat pomocí parametrické rovnice

i=1 Přímka a úsečka. Body, které leží na přímce procházející body a a b můžeme zapsat pomocí parametrické rovnice I. Funkce dvou a více reálných proměnných 1. Úvod Značení: V textu budeme používat označení: N pro množinu všech přirozených čísel; R pro množinu všech reálných čísel; R n pro množinu všech uspořádaných

Více

OPTIMÁLNÍ SEGMENTACE DAT

OPTIMÁLNÍ SEGMENTACE DAT ROBUST 2004 c JČMF 2004 OPTIMÁLNÍ SEGMENTACE DAT Petr Novotný Klíčová slova: Výpočetní statistika, po částech spojitá regrese. Abstrakt: Snížení paměťové náročnosti při výpočtu po částech spojitého regresního

Více