Státnice odborné č. 19



Podobné dokumenty
VYUŽITÍ NEURONOVÝCH SÍTÍ PROSTŘEDÍ MATLAB K PREDIKCI HODNOT NÁKLADŮ PRO ELEKTRICKÉ OBLOUKOVÉ PECE

Miroslav Čepek

Neuronová síť. x 2 x 3. σ j. x 4. x 5. Menu: QCExpert Prediktivní metody

a m1 a m2 a mn zobrazení. Operaci násobení u matic budeme definovat jiným způsobem.

1.7. Mechanické kmitání

Data v počítači EIS MIS TPS. Informační systémy 2. Spojení: jan.skrbek@tul.cz tel.: Konzultace: úterý

Příprava na 1. čtvrtletní písemku pro třídu 1EB

Vyvažování tuhého rotoru v jedné rovině přístrojem Adash Vibrio

Žáci mají k dispozici pracovní list. Formou kolektivní diskuze a výkladu si osvojí grafickou minimalizaci zápisu logické funkce

-1- N á v r h ČÁST PRVNÍ OBECNÁ USTANOVENÍ. 1 Předmět úpravy

ČÁST PÁTÁ POZEMKY V KATASTRU NEMOVITOSTÍ

METODIKA PRO NÁVRH TEPELNÉHO ČERPADLA SYSTÉMU VZDUCH-VODA

účetních informací státu při přenosu účetního záznamu,

Příloha č. 54. Specifikace hromadné aktualizace SMS-KLAS

SBÍRKA PŘÍKLADŮ PRO OPAKOVÁNÍ NA PŘIJÍMACÍ ZKOUŠKY 2

Katedra obecné elektrotechniky Fakulta elektrotechniky a informatiky, VŠB - TU Ostrava 16. ZÁKLADY LOGICKÉHO ŘÍZENÍ

170/2010 Sb. VYHLÁŠKA. ze dne 21. května 2010

Typy umělých neuronových sítí

Osvětlovací modely v počítačové grafice

Příloha č. 3 VÝKONOVÉ UKAZATELE

Statistika ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE FAKULTA DOPRAVNÍ. Jiří Volf, Adam Kratochvíl, Kateřina Žáková. Semestrální práce - 0 -

Oborové číslo Hodnocení - část A Hodnocení - část B Hodnocení - část A+B

269/2015 Sb. VYHLÁŠKA

Příloha č. 7. ročník 9. 1h 1x za 14 dní. dotace. nepovinný. povinnost

c sin Příklad 2 : v trojúhelníku ABC platí : a = 11,6 dm, c = 9 dm, α = Vypočtěte stranu b a zbývající úhly.

3. Polynomy Verze 338.

Pokyny k vyplnění Průběžné zprávy

Základy zpracování obrazů

Moderní technologie ve studiu aplikované fyziky CZ.1.07/2.2.00/ Reálná čísla

NÁVRHOVÝ PROGRAM VÝMĚNÍKŮ TEPLA FIRMY SECESPOL CAIRO PŘÍRUČKA UŽIVATELE

Strojové uení. typy učení: Metody učení: učení se znalostem (knowledge acquisition) učení se dovednostem (skill refinement).

1.3 Druhy a metody měření

MATEMATIKA A BYZNYS. Finanční řízení firmy. Příjmení: Rajská Jméno: Ivana

STANOVISKO č. STAN/1/2006 ze dne

ZATÍŽENÍ SNĚHEM A VĚTREM

Dne obdržel zadavatel tyto dotazy týkající se zadávací dokumentace:

Kontrolní test Číslicová technika 1/2. 1.Převeďte číslo 87 z desítkové soustavy z= 10 do soustavy dvojkové z=2

( x ) 2 ( ) Další úlohy s kvadratickými funkcemi. Předpoklady: 2501, 2502

ZADÁVACÍ DOKUMENTACE

VYSOKÁ ŠKOLA FINANČNÍ A SPRÁVNÍ, o.p.s. Fakulta ekonomických studií katedra řízení podniku. Předmět: ŘÍZENÍ LIDSKÝCH ZDROJŮ (B-RLZ)

Studie proveditelnosti. Marketingová analýza trhu

Národní informační středisko pro podporu kvality Tůmová

Modul Řízení objednávek.

SOUTĚŽNÍ ŘÁD soutěží ČSOB v orientačním běhu

A. PODÍL JEDNOTLIVÝCH DRUHŮ DOPRAVY NA DĚLBĚ PŘEPRAVNÍ PRÁCE A VLIV DÉLKY VYKONANÉ CESTY NA POUŽITÍ DOPRAVNÍHO PROSTŘEDKU

PROGRAM PRO POSKYTOVÁNÍ DOTACÍ Z ROZPOČTU KARLOVARSKÉHO KRAJE ODBORU KULTURY, PAMÁTKOVÉ PÉČE, LÁZEŇSTVÍ A CESTOVNÍHO RUCHU

SMLOUVA O POSKYTNUTÍ DOTACE

SBÍRKA ZÁKONŮ. Ročník 2016 ČESKÁ REPUBLIKA. Částka 10 Rozeslána dne 28. ledna 2016 Cena Kč 210, O B S A H :

KLASIFIKÁTOR IZOLOVANÝCH SLOV NA BÁZI UMĚLÉ NEURONOVÉ SÍTĚ

Ukázka knihy z internetového knihkupectví

6. Matice. Algebraické vlastnosti

Algoritmizace a programování

Tel/fax: IČO:

MATEMATIKA I VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ FAKULTA STAVEBNÍ JIŘÍ NOVOTNÝ ZÁKLADY LINEÁRNÍ ALGEBRY

Manuál optimalizační části aplikace: Optimalizace krajinné struktury z hlediska hydrologických režimů.

TALISMAN. (dále také jen TAL 5.0 )

Metodika kontroly naplněnosti pracovních míst

Dynamický model predikovaného vývoje krajiny. Vilém Pechanec

MS měření teploty 1. METODY MĚŘENÍ TEPLOTY: Nepřímá Přímá - Termoelektrické snímače - Odporové kovové snímače - Odporové polovodičové

PROVĚŘOVÁNÍ KAPACITNÍCH MOŽNOSTÍ UZLŮ LOGISTICKÝCH SÍTÍ S INTERAKCÍ VOZIDEL

ŠVP - učební osnovy - Vzdělání pro život - rozšířená výuka matematiky, přírodovědných předmětů a informatiky

HERNÍ PLÁN. pro provozování okamžité loterie Milionové recepty

Výzva pro předložení nabídek k veřejné zakázce malého rozsahu s názvem Výměna lina

Příloha Průběžné zprávy. Shrnutí návrhu algoritmu

Upíše-li akcie osoba, jež jedná vlastním jménem, na účet společnosti, platí, že tato osoba upsala akcie na svůj účet.

KAPITOLA 6.3 POŽADAVKY NA KONSTRUKCI A ZKOUŠENÍ OBALŮ PRO INFEKČNÍ LÁTKY KATEGORIE A TŘÍDY 6.2

ROZCVIČKY. (v nižší verzi může být posunuta grafika a špatně funkční některé odkazy).

Zásady o poskytování finančních příspěvků z rozpočtu města Slaného pro sportovní a zájmové organizace (dále jen Zásady )

Sbírka zákonů ČR Předpis č. 27/2016 Sb.

MĚSTO BENEŠOV. Rada města Benešov. Vnitřní předpis č. 16/2016. Směrnice k zadávání veřejných zakázek malého rozsahu. Čl. 1. Předmět úpravy a působnost

Skupina Testování obsahuje následující moduly: Síla a rozsah výběru, Testy a Kontingenční tabulka.

PŘÍLOHA 1.6 SMLOUVY O PŘÍSTUPU K VEŘEJNÉ PEVNÉ KOMUNIKAČNÍ SÍTI LOGISTIKA KONCOVÝCH ZAŘÍZENÍ

ŘÁD UPRAVUJÍCÍ POSTUP DO DALŠÍHO ROČNÍKU

TECHNICKÁ UNIVERZITA V LIBERCI

Seriál: Management projektů 7. rámcového programu

Čl. 3 Poskytnutí finančních prostředků vyčleněných na rozvojový program Čl. 4 Předkládání žádostí, poskytování dotací, časové určení programu

27/2016 Sb. VYHLÁŠKA ČÁST PRVNÍ ÚVODNÍ USTANOVENÍ ČÁST DRUHÁ

2 Trochu teorie. Tab. 1: Tabulka pˇrepravních nákladů

Matematika 3. RNDr. Břetislav Fajmon, Ph.D. Mgr. Irena Růžičková ÚSTAV MATEMATIKY

TWINNING PROJEKT CZ01/IB-EN-01

Marta Vomlelová

Mikromarz. CharGraph. Programovatelný výpočtový měřič fyzikálních veličin. Panel Version. Stručná charakteristika:

VYHLÁŠKA Č. 51 ze dne 17. února 2006 o podmínkách připojení k elektrizační soustavě

Metody hodnocení rizik

Všeobecné pojistné podmínky pro pojištění záruky pro případ úpadku cestovní kanceláře

S M L O U V U o poskytnutí účelové dotace č. HS 31/2015. podle 10a zák. č. 250/2000 Sb., ve znění pozdějších předpisů

Pokyny České pošty pro označování Doporučených zásilek čárovými kódy

Předmět: Ročník: Vytvořil: Datum: ŠČERBOVÁ M. PAVELKA V. NOSNÍKY NOSNÍKY

4 DVOJMATICOVÉ HRY. Strategie Stiskni páku Sed u koryta. Stiskni páku (8, 2) (5, 3) Sed u koryta (10, 2) (0, 0)

Ploché výrobky z konstrukčních ocelí s vyšší mezí kluzu po zušlechťování technické dodací podmínky

Fraktální analýza tiskových struktur

ZADÁVACÍ DOKUMENTACE

EXPERTNÍ POSUDEK Doc. RNDr. Martin Ouředníček, Ph.D. Stručný výtah z posudku.

Makroekonomie I. Přednáška 2. Ekonomický růst. Osnova přednášky: Shrnutí výpočtu výdajové metody HDP. Presentace výpočtu přidané hodnoty na příkladě

Inovace bakalářského studijního oboru Aplikovaná chemie. Reg. č.: CZ.1.07/2.2.00/

TENZOMETRICKÝ KOMPARÁTOR

Výzva k podání nabídek (zadávací dokumentace)

Veřejnoprávní smlouva o poskytnutí investiční dotace č. 1/2016

1.11 Vliv intenzity záření na výkon fotovoltaických článků

M - Příprava na čtvrtletní písemnou práci

Transkript:

Státnice odborné č. 19 Klasifikace dat do tříd Klasifikace dat do tříd. Metoda k-nejbližších sousedů, lineární separace, Perceptronový algoritmus, neuronové sítě Klasifikace dat do tříd, Klasifikace a predikce Proces klasifikace se skládá ze dvou kroků: 1. učení: tvorba klasifikačního modelu schopného klasifikovat data pomocí trénovacích dat (vzorků dat u nichž známe výsledek klasifikace, tj. třídu, do které patří), 2. vlastní klasifikace: použití modelu pro klasifikaci nových dat (jejich zařazení do tříd rozpad množiny záznamů do disjunktních tříd podle daného modelu klasifikace). Jako predikce je označován proces určení dodatečných, případně chybějících, hodnot atributů analyzovaného záznamu. Jedním z druhů predikce je výše zmiňovaná vlastní klasifikace, kdy se určuje dodatečný atribut představující třídu objektu (atribut diskrétního charakteru). Dalším druhem predikce je regrese, kdy jsou pomocí modelu vzniklého klasifikací dopočítány číselné hodnoty některého atributu spojitého charakteru. Před samotnou klasifikací nebo predikcí, je třeba provést úpravy dat: čištění dat odstraňuje šum nebo snižuje jeho míru a doplňuje chybějící hodnoty (např. s využitím regresní analýzy), určení relevance dat jsou odstraněny irelevantní a redundantní data, případně jsou záznamy ohodnoceny vahou jejich významu, transformace dat zahrnuje generalizaci (především za účelem převedení spojitých typů atributů na diskrétní typy, které jsou lépe použitelné v některých typech klasifikačních modelů) a normalizaci dat (normalizovaná data jsou výhodná např. pro neuronové sítě) za účelem přizpůsobení použitému klasifikačnímu modelu. Teorie pravděpodobnosti a matematická statistika Pro další výklad budeme potřebovat základní znalosti z teorie pravděpodobnosti a matematické statistiky. V tomto úvodu si stručně shrneme základní poznatky a ujasníme notaci. Mějme m nějakých událostí (pokusů), při kterých v k případech nastane elementární jev A. Pak pojmem pravděpodobnost (výskytu) jevu A budeme rozumět číselné vyjádření udávající poměr k/m, tj. počet pokusů, kdy nastane jev A, ku celkovému počtu pokusů. Zapisujeme P(A)=k/m.

Připomínáme, že při algebraických operacích s pravděpodobností platí Kolmogorovovy axiomy. To znamená, že pravděpodobnost celého systému elementárních jevů je jedna (jedná se o jev jistý) a pravděpodobnost sjednocení jevů je součet jejich pravděpodobností. Podmíněnou pravděpodobností P(A B) rozumíme pravděpodobnost, že nastane jev A v případech, kdy platí jev B. Tato pravděpodobnost je definována jako: Pokud jsou A a B nezávislé jevy, pak je podmíněná pravděpodobnost jevu A na B rovna pravděpodobnosti jevu A. Zároveň z definice podmíněné pravděpodobnosti platí, že průnik nezávislých jevů je součin jejich pravděpodobností. Bayesova věta. Pokud A 1, A 2, až A k jsou jevy s nenulovou pravděpodobností, jejich sjednocení je jev jistý a C je jev s nenulovou pravděpodobností, pak pro libovolné přirozené j k platí: P(A j C) se nazývá posteriori pravděpodobnost a P(A j ) je známá jako priori pravděpodobnost V následujícím textu se také setkáme s pojmem regresní analýza (resp. regrese). Regresní analýza je označení statistických metod, pomocí nichž odhadujeme hodnotu (jak je patrné, tak regresní analýza je využitelná při predikci) jisté náhodné veličiny (závisle proměnné) na základě znalosti jiných veličin (nezávisle proměnných). V případě, že závisle proměnná Y je skalár nebo vektor lineárního prostoru, hledáme regresní funkci nezávisle proměnných X 1, X 2, až X p obvykle jako střední hodnotu. Nejčastějším případem lineární regrese, kde je lineární regresivní funkce v obecném tvaru s regresními koeficienty k 0, k 1, k 2, až k p : Pokud je závisle proměnná Y diskrétní (nabývá hodnoty ze spočetné množiny mohutnosti k), regresní analýza se označuje jako diskriminační analýza. Regresní funkce pak vrací hodnotu podmíněné pravděpodobnosti, že odhadovaná hodnota je hodnota závisle proměnné Y na základě nezávisle proměnných X 1, X 2, až X p. Typy klasifikačních modelů V této kapitole představíme základní algoritmy pro řešení klasifikace a predikce. Klasifikační problém definujeme nad databází D = {t 1,, t n } n-tic představujících záznam a pro třídy C = {C 1,, C m } jako problém nalezení mapování f:d C, které každému ti

přiřazuje jednu třídu. Třída C j pak obsahuje záznamy mapované do ní, tj.. Rozhodovací stromy Jedním z typů klasifikačních modelů je rozhodovací strom. Rozhodovací strom můžeme definovat jako strom, kde každý nelistový uzel stromu představuje test na hodnotu atributu a větve vedoucí z tohoto uzlu možné výsledky testu (např. test muž nebo žena? a výsledky muž a žena ). Listové uzly stromu jsou ohodnoceny identifikátory tříd (výsledky klasifikace). Vlastní klasifikace pomocí rozhodovacího stromu probíhá cestou záznamu od kořene stromu k jeho listu. V každém kroku je záznam otestován podle testu v aktuálním uzlu rozhodovacího stromu a dále pokračuje po větvi shodné s konkrétním výsledkem testu. Pokud takto záznam dojde až do listového uzlu je oklasifikován třídou identifikovanou hodnotou příslušného listu rozhodovacího stromu. Jak je patrné z charakteru rozhodovacích stromů a průběhu klasifikace, pomocí rozhodovacích stromů je možné provádět pouze predikci diskrétních hodnot (tedy vlastní klasifikaci) a výsledky testů musí být diskrétního typu. Proto musí být analyzovaná data spojitého charakteru převedena pomocí generalizace na data diskrétního charakteru (toto může být realizováno až při testu, například rozdělením výsledku testu atributu reálného typu na konečný počet intervalů). Konstrukci rozhodovacího stromu z trénovacích vzorků S podle atributů D provádí algoritmus: 1. vytvoř uzel N, 2. pokud jsou vzorky v S stejné třídy C, tak ohodnoť N identifikátorem C a skonči, 3. pokud je D prázdné, tak ohodnoť N identifikátorem třídy převládající v S a skonči, 4. ohodnoť N atributem t z D, který má největší informační zisk, 5. pro každou hodnotu v i atributu t vytvoř z N hranu ohodnocenou podmínkou t=v i do uzlu vzniklého spuštěním tohoto algoritmu s podmnožinou trénovacích vzorků S, které vyhovují uvedené podmínce, a podmnožinou atributů D bez atributu t. Zbývá definovat informační zisk atributu, podle kterého se provádí v algoritmu výběr vhodného testu. Informační zisk atributu A, ozn. Gain(A), je definován jako míra snížení entropie při znalosti hodnoty atributu A. Pokud máme m různých tříd a s i je počet trénovacích záznamů spadajících do třídy C i, p i pravděpodobnost, že libovolný záznam patří do C i (tj. s i /s), pak informace potřebná pro klasifikaci je Mějme atribut A, který je použit v testu a má v různých hodnot. Tento atribut rozdělí množinu trénovacích dat na v podmnožin, podle hodnot atributu. Pokud s je počet trénovacích záznamů, s ij počet trénovacích záznamů patřících do třídy C i v j-té podmnožině vzniklé dělením podle hodnoty testu atributu a p ij pravděpodobnost, že libovolný záznam v j-té podmnožině patří do C i (tj. s ij / S j ), pak entropie rozdělení podle atributu A je

Informační zisk atributu A se pak vypočítá jako rozdíl informace potřebné pro klasifikaci a entropie rozdělení podle atributu A, tedy: Ořezávání rozhodovacích stromů Rozhodovací stromy vzniklé automaticky výše uvedeným algoritmem nemusí mít optimální tvar, vhodný pro rychlou a korektní klasifikaci. Proto jsou stromy modifikovány tzv. ořezáváním stromů (tree-pruning). Jsou používány dva způsoby ořezávání stromů: ořezávání při konstrukci stromu (prepruning) a ořezávání po konstrukci stromu (postpruning). Ořezávání při konstrukci rozhodovacího stromu je realizováno předčasným ukončením některých větví rozhodovacího stromu. Důvodem k ukončení konstrukce větví může být např. dostatečně velká pravděpodobnost, že data v dané větvi patří do určité třídy. Problémem je určení této hranice tak, aby rozhodovací strom nebyl příliš mělký (vysoká chybovost procesu klasifikace), ani příliš hluboký (časová náročnost klasifikace). Ořezávání po konstrukci odstraňuje některé větve hotového rozhodovacího stromu. Odstraněné větve jsou nahrazeny listy, které jsou ohodnoceny třídou s největší četností v listech podstromu dané odstraněné větve. Větve jsou ořezávány, dokud je míra chyby menší než určitá hranice (jiná hranice pro určení míry ořezání může být velikost paměti pro zakódování rozhodovacího stromu). Ořezávání po konstrukci stromu je více výpočetně náročné než ořezávání při konstrukci, ale obecně poskytuje lepší výsledky. Systémy rozhodovacích (klasifikačních) pravidel Rozhodovací (klasifikační) pravidla jsou lineárním zápisem rozhodovacích stromů (avšak na rozhodovací pravidla lze převést také např. klasifikační model neuronové sítě). Rozhodovací pravidla se skládají z podmínky a závěru (if-then). Množina pravidel vznikne z rozhodovacího stromu transformací, při které vyjádříme každou cestu z kořene do listu stromu jako pravidlo, kde: podmínka pravidla je logický součin všech podmínek testů atributů (atribut=hodnota) po cestě z kořene do listu, závěr pravidla je klasifikace záznamu třídou v listu rozhodovacího stromu. Vlastní klasifikace pak probíhá vyhodnocením rozhodovacích pravidel na analyzovaném záznamu. V obecném modelu systému rozhodovacích pravidel není definováno pořadí jejich vyhodnocení. V kombinovaných klasifikačních modelech může být každé pravidlo ohodnoceno vahou (jeho významností) a pravidla vyhodnocovány v sestupném pořadí podle jejich váhy. Další modifikací klasifikace pomocí systému pravidel může být uplatnění fuzzy logiky, kdy je příslušnost záznamu stanovena pro každou třídu hodnotou od 0 do 1, získanou aplikací více pravidel. Každé úspěšné pravidlo přispěje ke klasifikaci záznamu do dané třídy ( typicky je

výsledek pro třídu získán součtem všech pro ni úspěšných pravidel a normalizací výsledku do intervalu 0 až 1). Klasifikační model využívající rozhodovací pravidla lze vylepšit využitím principů genetických algoritmů. Je zřejmé, že každé pravidlo lze zakódovat do bitového řetězce určité délky např. očíslováním dílčích podmínek a převodem levé strany pravidla na řetězec bitů, kde bit na n-té pozici reprezentuje přítomnost podmínky číslo n, a analogicky u pravé strany (očíslováním tříd a řetězcem s pouze jediným kladným bitem). Pak můžeme provádět iterace a v každém kroku provést operace genetických algoritmů: crosover (vytvoření nového pravidla z levé a pravé strany různých pravidel) a mutation (inverzí náhodného bitu levé strany náhodně vybraného pravidla). Po každé iteraci pak vyřadíme pravidla s velkou chybovostí na trénovacích datech. Pokud chybovost všech pravidel dosahuje nepřekročí hranice, iterace končí a výsledek je optimalizovaný systém rozhodovacích pravidel. Statistické metody Ze statistických metod se používá pro klasifikaci a predikci regrese a Bayesovská klasifikace. V případě lineární regrese predikujem spojitý atribut počítáme závisle proměnnou y i se zahrnutím chyby ε i Nyní se snažíme chybu minimalizovat. Použijeme metodu minimálních druhých mocnin chyby, kdy hledáme takovou hodnotu koeficientů, kdy bude součet čtverců chyby minimální. Pomocí částečné derivace po koeficientech c 0 až c n a položením výsledku derivace jako rovný nule, získáme z výsledné soustavy rovnic hodnoty koeficientů c 0 až c n při minimální chybě ε i. Zápisem závisle proměnné pomocí rovnice lineární regrese s dosazením hodnot koeficientů získáme vyjádření závislosti y i na atributech x 1 až x n. Podobným způsobem lze použít nelineární regresi, kde je závisle proměnná hodnotou polynomu nezávisle proměnných, nebo obecnou regresi založenou na libovolné funkci nezávisle proměnných. Bayesovská klasifikace využívá důsledků Bayesovy věty (viz výše) pro klasifikaci záznamu přiřazením třídy z množiny možných tříd. Předpokládejme, že data jsou reprezentovány n- rozměrnými vektory, X=(x 1,, x n ), kde složka x i představuje hodnotu atributu A i. Proces naivní (jednoduché) Bayesovské klasifikace přiřadí záznamu X třídu C i (jednu ze tříd C 1 až C m ), právě když pravděpodobnost tohoto jevu nastane s největší posteriori pravděpodobností

Pravděpodobnost P(X) je pro všechny třídy stejná (je to pravděpodobnost obecného výskytu záznamu X), P(C i ) lze implicitně položit rovnu 1/m. Pak zbývá nalézt maximum pravděpodobnosti P(X C i ). Tuto pravděpodobnost můžeme spočítat následovně (předpokládáme, že hodnoty atributů spojitého typu mají Gaussovo rozložení): Bayesian belief networks Naivní Bayesovská klasifikace vychází z předpokladu, že atributy záznamu jsou na sobě nezávislé. Pokud tento předpoklad neplatí je nutno zachytit vzájemné závislosti atributů a při výpočtu na ně brát ohled. Bayesovské důvěrné sítě (Bayesian belief networks, BBN) nazývané také pravděpodobnostní sítě, představují grafický model vztahů. BBN se skládají ze dvou částí: 1. orientovaný acyklický graf, kde každý uzel reprezentuje proměnnou a každá hrana pravděpodobnostní závislost, 2. tabulky podmíněných pravděpodobností (conditional probability table, CPT), které ke každé proměnné (jedna tabulka) udávají hodnotu pravděpodobnosti vlivu kombinací jejich rodičů [rodič = proměnná (uzel), ze které vede do dané proměnné (uzlu) hrana] (sloupce tabulky) na její hodnoty (řádky tabulky). Vlastní klasifikace je prováděna podobným způsobem, jako při naivní Bayesovské klasifikaci, pouze pravděpodobnost záznamu X se spočítá s ohledem na CPT Při učení BBN je nutné přibližně sestavit graf závislostí proměnných a dopočítat hodnoty tabulek CPT z trénovacích vzorků dat. Neuronové sítě Neuronová síť je neorientovaný graf, kde je každý uzel označen číslem vrstvy a pořadím uzlu ve vrstvě a hrany spojují jen uzly sousedních vrstev. První vrstva neuronové sítě je vstupní vrstva, poslední vrstva je označována jako výstupní vrstva. Vrstvy mezi vstupní a výstupní vrstvou jsou nazývány skryté vrstvy. Jako výstupní jednotky jsou označovány uzly skrytých vrstev a výstupní vrstvy. Neuronová síť je nazývána n-vrstvou, právě když má n vrstev výstupních jednotek. Hrany grafu neuronové sítě jsou označeny vahami. Vstup dat do neuronové sítě probíhá přes vstupní vrstvu, kde je vstupem každého uzlu hodnota části analyzovaného záznamu. Typicky odpovídá jeden uzel vstupní vrstvy jednomu atributu spojitého typu normalizovaného do intervalu od 0 do 1. Hodnoty atributů diskrétních typů mohutnosti n jsou buď převedeny na n bodů mezi 0 a 1 (interval je rozdělen na n-1 částí) nebo vyjádřeny n uzly vstupní vrstvy, z nichž vždy jen jeden uzel má vstup 1 (n-tý uzel odpovídá hodnotě n). Výstup dat je realizován

přes uzly výstupní vrstvy neuronové sítě. Při klasifikaci záznamu je příslušnost k m-té třídě reprezentována hodnotou 1 na m-tém uzlu výstupní vrstvy a hodnotou 0 na ostatních ( pokud má model pouze dvě třídy, lze rozhodování implementovat jedním uzlem výstupní vrstvy s hodnotami 0 a 1). Vlastní klasifikace a učení neuronové sítě probíhá algoritmem zpětné propagace (backpropagation). Na začátku je potřeba určit topologii neuronové sítě ve většině případů se používá dvouvrstvá plně propojená (plně propojená znamená, že každé dva uzly sousedních vrstev jsou propojeny) neuronová síť. Pokud nejsou určeny váhy hran grafu neuronové sítě, nastaví se na malé náhodné číslo (např. od 1 do +1) a podobně se nastaví hodnota zkreslení (bias) každého uzlu. Vlastní algoritmus probíhá opakovaně ve dvou krocích: 1. dopředná propagace Vstupní hodnoty uzlů vstupní vrstvy jsou předány na jejich výstup bez změny. Vstupní hodnoty každého uzlu skryté vrstvy a výstupní vrstvy jsou lineárně nakombinovány a předány aktivační funkci (např. squashing funkce, jak je ukázáno dále). Výsledek aktivační funkce je předán na výstup uzlu (tzn. u uzlů skrytých vrstev na vstup uzlu následující vrstvy). Pro uzel j je vstupy I j a výstup O j spočítán pomocí vah vstupních hran w ij, zkreslení θ a aktivační funkce takto: 2. zpětná propagace Výsledek klasifikace je porovnán s očekávaným výsledkem a hodnota chyby se propaguje zpět od výstupní vrstvy po vrstvu vstupní. Při propagaci hodnota chyby ovlivní hodnoty zkreslení uzlů a váhy hran grafu neuronové sítě. Pokud T j je očekávaná hodnota uzlu j výstupní vrstvy a O j je skutečná hodnota výstupu tohoto uzlu, O i je skutečná hodnota výstupu uzlu i skryté vrstvy, pak chyby uzlů výstupní vrstvy Err j a skrytých vrstev Err i lze vypočítat Korekce váhy hrany mezi uzly i a j závisí na chybě Err j v uzlu j, výstupu O i uzlu i a koeficientu rychlosti učení l (koeficient bývá číslo mezi 0 a 1, zpravidla 1/t, kde t je (maximální) očekávaný počet iterací). Zkreslení uzlu je dáno koeficientem rychlosti učení a chybou uzlu. 3. Algoritmus skončí, pokud jsou korekce vah hran nebo procento neúspěšné klasifikace příliš malé, nebo pokud byl proveden nastavený maximální počet iterací. Problémem práce s neuronovými sítěmi je porozumění znalosti, kterou reprezentuje konkrétní klasifikační model v podobě neuronově sítě. Pro lepší vyjádření této znalosti lze použít systémy klasifikačních pravidel (viz výše). Při převodu je nejprve snížena složitost (zejména plně propojené) neuronové sítě ořezáním, kdy jsou odstraněny hrany, které se svou vahou významně nepodílí na výsledku klasifikace. Vlastní pravidla lze získat pomocí clustrování

hodnot aktivačních funkcí a výstupů mezi výstupní a skrytou vrstvou a vstupní a skrytou vrstvou. Další možností je citlivostní analýza, kdy výsledná pravidla popisují závislost změny vstupu na změně výstupu sítě. Využití vzdálenosti (podobnosti) Metody klasifikace založené na vzdálenosti využívají skutečnosti, že pokud jsou dva záznamy klasifikovány do stejné třídy, tak musí mít něco společného, tj. musí si být podobné. Vlastní klasifikace pak spočívá ve zvolení vhodné metriky podobnosti záznamů. Analyzovaný záznam je klasifikován do třídy, která obsahuje mu nejbližší záznamy. V praxi se používá klasifikace podle k nejbližších sousedů (odtud název k nearest neighbours, KNN). Tato metoda předpokládá, že existují trénovací záznamy, které jsou správně oklasifikované. Vlastní klasifikace nového záznamu pak probíhá tak, že je vybráno k trénovacích záznamů, které jsou nejbližší klasifikovanému záznamu [pro optimalizaci je vhodné zavést číselnou charakteristiku záznamů (u trénovacích záznamů ji lze předpočítat) a využívat při určování vzdálenosti pouze ji]. Analyzovaný záznam je klasifikován do třídy, do které náleží nejvíce z vybraných trénovacích záznamů. KNN používá pro určení blízkosti záznamů vzdálenost vektorů v Euklidovském prostoru (jsou tedy nutné číselné atributy s uspořádáním) Obecnější klasifikace založená na využití vzdálenosti záznamů je case-based reasoning (CBR). Narozdíl od KNN umožňuje CBR použití libovolné metriky vzdálenosti. Při vlastní klasifikaci je nejprve vyhledán trénovací záznam identický klasifikovanému záznamu a pokud je nalezen, tak je klasifikovaný záznam zařazen do stejné třídy, jako má trénovací záznam. V opačném případě se hledají podobné (blízké) trénovací záznamy a klasifikace je provedena podle nejčetnější třídy podobných záznamů. Problém klasifikačních metod využívajících vzdálenosti je volba (resp. návrh) vhodné metriky a její implementace. Platí, že metriky jsou silně závislé na druhu záznamů. Přesnost klasifikačních modelů Přesnost klasifikačního modelu vyjadřuje míru schopnosti modelu klasifikovat neznámá data (tzn. data, na která model nebyl trénován). Použití trénovacích dat k výpočtu přesnosti modelu by vedlo k chybným výsledkům, neboť se jedná o data, na kterých byl systém trénován a která se při reálném nasazení klasifikačního systému nebudou téměř vyskytovat. Při metodě zvané holdout, jsou před trénováním modelu referenční data náhodně rozdělena na dvě množiny: trénovací data a testovací data. Pro určení přesnosti výsledného modelu jsou pak použita pouze testovací data. Rozšířením této metody je tzv. random subsampling, kdy je metoda holdout zopakována vícekrát a přesnost je brána jako průměr přesností získaných v jednotlivých iteracích. Referenční data jsou náhodně rozdělena také při metodě k-fold cross-validation, a to do k disjunktních podmnožin (folds) S 1 až S k přibližně stejné velikosti. Při i-té iteraci je brána

množina S i jako testovací a zbylé množiny jsou využity pro trénování modelu. Výsledná přesnost je vypočítána jako podíl počtu úspěšných klasifikací ve všech iteracích a mohutnosti množiny referenčních dat. Při stratified cross-validation je množina iniciálních dat rozdělena tak, aby měla každá podmnožina přibližně stejnou distribuci tříd. Poslední dvě metody, které si prezentujeme, jsou tzv. bootstrapping, tj. trénování nad referenčními daty s náhodnými náhradami, a leave-one-out, což je k-fold cross-validation pro k rovno mohutnosti množiny referenčních dat. Pro zvýšení přesnosti lze použít klasifikaci více modely. Při metodě zvané bagging je záznam klasifikován třídou určenou většinou klasifikačních modelů. Toto rozšiřuje metoda boosting, kdy je celkový výsledek získán jako vážený průměr výsledků klasifikačních modelů, s váhou určenou podle úspěšnosti jejich dřívějších klasifikací. Závěr Existuje mnoho způsobů, jak provádět procesy klasifikace a predikce. Kritéria pro porovnání metod jsou zejména přesnost, výpočetní složitost, odolnost vůči chybám (robustnost), škálovatelnost a snadno interpretace (viz konec části Neuronové sítě ). Pravděpodobně nejsledovanějším faktorem metod klasifikace a nejvýznamnější vlastností konkrétních klasifikačních modelů je jejich přesnost (viz část Přesnost klasifikačních modelů ). Stručné shrnutí Klasifikačních algoritmů: Naive Bayes počítá pravděpodobnost přiřazení do třídy za podmínky dané pozorováním. Rozhodovací strom generuje posloupnost rozhodnutí. k-nejbližších sousedů hledá nejbližší instance z trénovací množiny. Lineární separace, Perceptronový algoritmus Další možný pohled je z hlediska rozhodovací hranice místa, kde instance přestávají patřit do třídy A a začínají patřit do třídy B. Nejjednodušší rozhodovací hranicí je přímka, resp. lineární klasifikátor:, kde je aditivní konstanta označovaná jako práh. Vzory pak testujeme dosazením do rovnice lineárního klasifikátoru. Učení lineárního klasifikátoru probíhá Perceptronovým algoritmem: 1. inicializuj váhy w j na náhodné hodnoty, 2. vezmi náhodný vstupní vzor x a spočítej hodnotu 3. pokud se požadovaný výstup liší od skutečného, oprav váhy 4. je- li potřeba, pokračuj bodem 2.

Existují lineárně neseparovatelné problémy řešitelné kombinací lineárních klasifikátorů nebo rozšířením báze (vícedimenzionální prostor stávající dimenze a součiny stávajících dimenzí). Případně možno použít LDA (Linear Discriminant Analysis) statistický přístup redukující původní prostor na přímku při současném co možná největším oddělení vzorů příslušných do různých tříd. LDA lze zobecnit pro klasifikaci do více tříd (LDA předpokládá normální rozložení dat). Neuronové sítě Umělá neuronová síť je matematickým přiblížením biologické neuronové sítě. A snahou je napodobovat funkci biologických neuronových sítí. Umělá neuronová síť se skládá ze vzájemně propojených jednotek neuronů. Každý neuron transformuje své vstupy na výstup, síla neuronů je v jejich spolupráci, tzv. konekcionistický přístup k umělé inteligenci představa, že spoluprací mnoha hloupých jednotek dosáhnu chování kvalitativně chytřejšího než jen součet možností jednotlivých elementů. Neuron při transformaci může uplatnit svou lokální paměť. Výstupy neuronů jsou přivedeny na vstupy dalších neuronů. Prvním modelem je McCulloch-Pittsův neuron Perceptron Na vstupy x 1, x 2,, x n předložím pozorované hodnoty, tyto hodnoty přenásobím vahami w 1, w 2,, w n a spočítám tzv. aktivaci neuronu Neuron vypálí výstup jen v případě, že aktivace překročí určitý práh, simulovaný aktivační funkcí. V případě perceptronu je aktivační funkcí funkce skoková f(a) = 0 pro a< konst. f(a) = 1 jinak Vylepšením perceptronu jsou různé aktivační funkce transformující vstupy na výstup:

Dalším drobným vylepšením je výpočet chyby z aktivace (při znalosti požadované aktivace) ADALINE: Vícevrstvá síť perceptronů se nazývá MADALINE (síť s jednou skrytou a jednou výstupní vrstvou):

Výpočet odpovědi MADALINE na předložený vstupní vzor pro každý neuron přenásobím vstupní hodnoty vahami a sečtu, tím získám aktivaci neuronu. Aktivaci transformuji aktivační funkcí na výstup. Po spočtení výstupů všech neuronů aplikuji majoritu (kolik neuronů zařadilo vzor do třídy 0 a kolik do třídy 1 ) a podle většiny předpovím výstupní třídu sítě. Učení MADALINE prováděno předložením vstupního vzoru a výpočtem výstupu. Je-li výstup shodný s požadovaným, nedělám nic, pokud se liší, musím změnit váhy nějakého neuronu, který předpovídá špatnou třídu, aby se tím majorita přiklonila na správnou stranu. Nejlépe je přesvědčit neuron s aktivací nejblíže nule (přepočtením jeho vah). Neuronová síť typu Back Propagation zvládá učení několika skrytých vrstev a dochází v ní ke zpětnému šíření chyby. Vrstva se skládá ze zkusmo určeného počtu neuronů a pro aproximaci libovolné funkce (rozhodovací hranice) stačí dvě skryté vrstvy. Back Propagation neuron je standartní perceptron se spojitou aktivační funkcí (využito při učení výpočet derivace) Při učení se nejprve spočítá odpověď (výstup) sítě na předložený vstup, pak se spočítá rozdíl mezi vypočítaným a požadovaným výstupem. Výpočet změny vah je odlišný chyba se distribuuje zpět ke vstupům a postupně se upravují váhy ve skrytých vrstvách. Pokračuje se předložením dalšího vzoru (z permutace trénovací množiny) až do dosažení zastavujícího kritéria (případně vytvoř další permutaci trénovací množiny). Zjištěním výstupu pro všechny vzory v trénovací množině lze určit globální chybu

sítě a tuto se snažíme minimalizovat metodou gradientního sestupu (co možná nejvíc klesající chyba). Oprava vah se provede ve výstupní vrstvě, v první skryté i ve druhé skryté vrstvě postupně zpětná propagace.