Kapitola 1. Naivní Bayesův klasifikátor



Podobné dokumenty
Slovní úlohy vedoucí na lineární rovnice I

Řešení: Dejme tomu, že pan Alois to vezme popořadě od jara do zimy. Pro výběr fotky z jara má Alois dvanáct možností. Tady není co počítat.

3. Polynomy Verze 338.

c sin Příklad 2 : v trojúhelníku ABC platí : a = 11,6 dm, c = 9 dm, α = Vypočtěte stranu b a zbývající úhly.

Matematický model kamery v afinním prostoru

Miroslav Čepek

4.5.1 Magnety, magnetické pole

Statistika ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE FAKULTA DOPRAVNÍ. Jiří Volf, Adam Kratochvíl, Kateřina Žáková. Semestrální práce - 0 -

VYUŽITÍ NEURONOVÝCH SÍTÍ PROSTŘEDÍ MATLAB K PREDIKCI HODNOT NÁKLADŮ PRO ELEKTRICKÉ OBLOUKOVÉ PECE

1.2.7 Druhá odmocnina

10 je 0,1; nebo taky, že 256

1.2.5 Reálná čísla I. Předpoklady:

Moderní technologie ve studiu aplikované fyziky CZ.1.07/2.2.00/ Reálná čísla

Příprava na 1. čtvrtletní písemku pro třídu 1EB

Algoritmizace a programování

ČÁST PÁTÁ POZEMKY V KATASTRU NEMOVITOSTÍ

Aritmetika s didaktikou II.

4 DVOJMATICOVÉ HRY. Strategie Stiskni páku Sed u koryta. Stiskni páku (8, 2) (5, 3) Sed u koryta (10, 2) (0, 0)

Vyvažování tuhého rotoru v jedné rovině přístrojem Adash Vibrio

Algoritmizace a programování

Matematická analýza KMA/MA2I 3. p edná²ka Primitivní funkce

Výsledky testování školy. Druhá celoplošná generální zkouška ověřování výsledků žáků na úrovni 5. a 9. ročníků základní školy. Školní rok 2012/2013

Měření hustoty kapaliny z periody kmitů zkumavky

Osvětlovací modely v počítačové grafice

1.7. Mechanické kmitání

1 Matematické základy teorie obvodů

Modul Řízení objednávek.

Kreativní malování. s dětmi. Dana Cejpková

( x ) 2 ( ) Další úlohy s kvadratickými funkcemi. Předpoklady: 2501, 2502

6. Matice. Algebraické vlastnosti

Strojové učení. 14. listopadu 2015

1.4.1 Výroky. Předpoklady: Výrok je sdělení, u něhož má smysl otázka, zda je či není pravdivé

pracovní list studenta

Poměry a úměrnosti I

Řízení kalibrací provozních měřicích přístrojů

Skupina Testování obsahuje následující moduly: Síla a rozsah výběru, Testy a Kontingenční tabulka.

Úlohy domácího kola kategorie C

Zadávání tiskových zakázek prostřednictvím JDF a Adobe Acrobat Professional

RUSSELŮV PARADOX RUSSELLŮV PARADOX

2 Trochu teorie. Tab. 1: Tabulka pˇrepravních nákladů

5. cvičení 4ST201_řešení

MANUÁL PRO HODNOCENÍ OTEVŘENÝCH TESTOVÝCH ÚLOH MATEMATIKA SADA B (TEST PRO PŘIJÍMACÍ ZKOUŠKY DO 8LETÉHO GYMNÁZIA)

Specifikace pravidel hodnocení pro vzdělávací obor: český jazyk a literatura

Názory na bankovní úvěry

A. PODÍL JEDNOTLIVÝCH DRUHŮ DOPRAVY NA DĚLBĚ PŘEPRAVNÍ PRÁCE A VLIV DÉLKY VYKONANÉ CESTY NA POUŽITÍ DOPRAVNÍHO PROSTŘEDKU

ZADÁVACÍ DOKUMENTACE

Měřidla. Existují dva druhy měření:

Těhotenský test pro zrakově postižené Tereza Hyková

M - Příprava na čtvrtletní písemnou práci

Investice a akvizice

Ohmův zákon pro uzavřený obvod

Dne obdržel zadavatel tyto dotazy týkající se zadávací dokumentace:

Uplatňování nařízení o vzájemném uznávání u předmětů z drahých kovů

Společné stanovisko GFŘ a MZ ke změně sazeb DPH na zdravotnické prostředky od

Počítání s decibely (není třináctá komnata matematiky)

SYLABUS PŘEDNÁŠKY 6b Z INŽENÝRSKÉ GEODÉZIE (Polohové vytyčování) 4. ročník bakalářského studia studijní program G studijní obor G

Hra Života v jednom řádku APL

STANOVISKO č. STAN/1/2006 ze dne

Příklad 1.3: Mocnina matice

Zobrazení v rovině je předpis, který každému bodu X roviny připisuje právě jeden bod X roviny. Bod X se nazývá vzor, bod X se nazývá obraz.

TVORBA MULTIMEDIÁLNÍCH PREZENTACÍ. Mgr. Jan Straka

DIDAKTIKA PRAKTICKÉHO VYUČOVÁNÍ I.

Katedra obecné elektrotechniky Fakulta elektrotechniky a informatiky, VŠB - TU Ostrava 16. ZÁKLADY LOGICKÉHO ŘÍZENÍ

Studie proveditelnosti. Marketingová analýza trhu

2.2.2 Zlomky I. Předpoklady:

PŘIJÍMACÍ ŘÍZENÍ. Strana

7. Odraz a lom. 7.1 Rovinná rozhraní dielektrik - základní pojmy

ŘÁD UPRAVUJÍCÍ POSTUP DO DALŠÍHO ROČNÍKU

2.1 Pokyny k otevřeným úlohám. 2.2 Pokyny k uzavřeným úlohám TESTOVÝ SEŠIT NEOTVÍREJTE, POČKEJTE NA POKYN!

ZKUŠEBNÍ ŘÁD PRO ZKOUŠKY TERIÉRŮ A JEZEVČÍKŮ BARVÁŘSKÉ ZKOUŠKY (BZ)

Umělá inteligence I. Roman Barták, KTIML.

SKLÁDANÉ OPĚRNÉ STĚNY

1)! 12 a) 14 a) K = { 1 }; b) K = { 6 }; c) K ={ 2 }; d) K ={ 3 }; e) K ={ 4 }; f) K = 0 ! ; N; 17 a) K =N; b) K ={ 2; 3;

Vyhláška č. 294/2015 Sb., kterou se provádějí pravidla provozu na pozemních komunikacích

III/2 Inovace a zkvalitnění výuky prostřednictvím ICT. Cyklus while, do-while, dělitelnost, Euklidův algoritmus

VYHLÁŠKA ČÁST PRVNÍ STÁTNÍ ZKOUŠKY Z GRAFICKÝCH DISCIPLÍN. Předmět úpravy

Finanční matematika pro každého

Státnice odborné č. 19

Pokud se vám tyto otázky zdají jednoduché a nemáte problém je správně zodpovědět, budete mít velkou šanci v této hře zvítězit.

Kód uchazeče ID:... Varianta: 15

Příloha č. 7. ročník 9. 1h 1x za 14 dní. dotace. nepovinný. povinnost

I nohy si chtějí hrát! (cvičení nejen pro děti)

HERNÍ PLÁN. pro provozování okamžité loterie Milionové recepty

Základní prvky a všeobecná lyžařská průprava

PŘÍRUČKA K PŘEDKLÁDÁNÍ PRŮBĚŽNÝCH ZPRÁV, ZPRÁV O ČERPÁNÍ ROZPOČTU A ZÁVĚREČNÝCH ZPRÁV PROJEKTŮ PODPOŘENÝCH Z PROGRAMU BETA

Exponenciála matice a její užití. fundamentálních matic. Užití mocninných řad pro rovnice druhého řádu

Kótování na strojnických výkresech 1.část

Měření změny objemu vody při tuhnutí

Úvod do zpracování měření

Pokusné ověřování Hodina pohybu navíc. Často kladené otázky

Loterie. Staněk Ondřej

PUBLICITA v OP VK. Seminář pro příjemce v rámci globálních grantů Olomouckého kraje. Olomouc, 20. a 21. dubna 2009

V této části manuálu bude popsán postup jak vytvářet a modifikovat stránky v publikačním systému Moris a jak plně využít všech možností systému.

Novinky verzí SKLADNÍK 4.24 a 4.25

Cesta kolem světa za 80 dní. Cesta kolem světa pro 2-6 hráčů od 10 let od Michaela Rienecka, Kosmos 2004

sexta, druhý ročník Celkem hodin

I. Objemové tíhy, vlastní tíha a užitná zatížení pozemních staveb

Tel/fax: IČO:

Zapamatujte si: Žijeme ve vibračním Vesmíru, kde vládne Zákon Přitažlivosti.

Mezní kalibry. Druhy kalibrů podle přesnosti: - dílenské kalibry - používají ve výrobě, - porovnávací kalibry - pro kontrolu dílenských kalibrů.

Transkript:

Kapitola 1 Naivní Bayesův klasifikátor Současná umělá inteligence používá velice často teorii pravděpodobnosti k odhadu nejistoty rozhodnutí, které stroje provádí. Z teorie pravděpodobnosti vychází v minulém desetiletí velice populární grafické modely a využívají ji i v současnosti velmi rychle se rozvíjející neuronové sítě. V této kapitole si ukážeme jeden velice jednoduchý pravděpodobnostní model, který se používá ke klasifikaci, a k jehož vysvětlení stačí pouze středoškolská matematika. V klasickém středoškolském pojetí se pravděpodobnost používá k popisu událostí, které u kterých opředu odhadnout, jak dopadnou například protože takový výpočet byl nepředstavitelně složitý (například u hodu kostkou). Teorie pravděpodobnosti můžeme uplatnit i v případě počítání s nejistotou (EN: uncertainty), byť se v tomto případě jedná o kvalitativně jinou veličinu. Když říkáme, že je padesátiprocentní pravděpodobnost, že na minci padne orel, myslíme tím že když hodíme mnohokrát, padne orel přibližně v polovině případů. Když ale tvrdíme, že ledovec roztaje s padesátiprocentní pravděpodobností, nemyslíme tím, že kdybychom naklonovali tisíce zeměkoulí a nechali je se nezávisle vyvíjet za stejných podmínek, na polovině z nich by ledovec roztál a na druhé polovině nikoli. Výsledek byl vždy stejný. Pravděpodobnostní modely ve strojovém učení modelují právě tuto nejistotu na základě vstupních rysů a dostupných trénovacích dat. Model si může být jistý a zároveň se mýlit. Často se uvádí výzkum americké armády z počátku 90. let, jehož cílem bylo automatické rozlišování snímků spojeneckých a nepřátelských tanků 1. Jak takové fotky tanků vypadaly si můžete prohlédnout na obrázku 1.1. K rozpoznávání tehdy použili neuronovou síť a dosáhli úspěšnosti přes 90 % na nezávislé testovací sadě, kterou nepoužili při trénování. Rozhodnutí modelu vykazovala vždy velkou míru jistoty, systém přesto v praxi naprosto selhával. Později se ukázalo, že fotky nepřátelských tanků byly vyfoceny v den, kdy byla zatažená obloha, fotky spojeneckých, když bylo jasno. Neuronová síť potom využívala tuhle náhodnou pravidelnost v trénovacích datech, a když byla zatažená obloha, s jistotou odpověděla, že se jedná o nepřátelský tank. Model, který si představíme v této kapitole je podstatně jednodušší, než neuronová síť určená k rozpoznávání tanků. Dříve, než si vysvětlíme samotný model, zopakujeme některé základní pojmy z pravděpodobnosti a statistiky, které budeme potřebovat. 1 Kompletní technickou zprávu mohou zájemci nalézt zde: http://www.cs.colostate.edu/~vision/ publications/1994_fcarson_report.pdf 1

Obrázek 1.1: Ukázka trénovacích dat pro rozpoznávání tanků, zdroj: Technická zpráva Fort Carson 1.1 Podmíněná pravděpodobnost V pravděpodobnosti a statistice říkáme, že jevy A a B jsou nezávislé, když pro pravděpodobnost, že nastanou oba jevy zároveň (tzv. sdruženou pravděpodobnost) platí vztah: P(A, B) = P(A) P(B). (1.1) To se dá snadno ilustrovat například na hodu kostkou. Pravděpodobnost, že padne šestka je 1 1. Pravděpodobnost, že padne dvakrát za sebou je podle vzorce 1.1 rovna. To ověříme snadno kombinatoricky: je celkem 36 kombinací, které mohou padnout při hodu dvěma 6 36 kostkami, jediná z nich jsou dvě šestky, pravděpodobnost je tedy 1. 36 Další pojem, který je třeba připomenout je podmíněná pravděpodobnost (EN: conditional probabiity). Pravděpodobnost, že nastane jev A (třeba že na dvou hracích kostkách padne dohromady více než 7) za podmínky, že nastal jev B (třeba že na první hrací kostce už padlo 5) můžeme vyjádřit následujícím vzorcem: P(A B) = P(A, B) P(B), (1.2) kde P(A, B) je pravděpodobnost, že oba jevy nastávají zároveň. Pro náš jednoduchý příklad s hracími kostkami je jasné, že aby byl součet větší než 7, musí na druhé kostce padnout cokoli, kromě jedničky nebo dvojky. Pokud se jedná o férovou kostku, vidíme pravděpodobnost, že součet bude alespoň 7 je 2 = 1. 6 3 Pokud počítáme podle rovnice 1.2, dosadíme do čitatele pravděpodobnosti, že na první kostce padlo 5 a zároveň je součet větší než 7. To nastává tehdy, když na druhé padne alespoň 3. Jsou tedy 4 možnosti z celkově 36 kombinací, co může na kostkách padnout. Do jmenovatele dosadíme pravděpodobnost, že na první kostce padlo 5, to je 1. Po dosazení získáme stejnou 6 1 jako v případě přímočarého řešení. 3 Z této dvou definic můžeme odvodit Bayesovu větu. Definici zformulujeme pro podmíněnou pravděpodobnost P(B A) a rovnici vynásobíme jmenovatelem na pravé straně: P(A, B) = P(B A) P(A) Tento vztah potom dosadíme rovnou do definice 1.2, čímž dostáváme znění Bayesovy věty: P(A B) = P(B A) P(A) P(B) 2 (1.3)

Zatím jsme o pravděpodobnosti jako o nástroji pro popis něčeho, co se chová nepředvidatelně a co lze mnohokrát opakovat. Nyní si ukážeme jednoduchý příklad, kdy můžeme použít Bayesovu věty pro odhad nejistoty. Častým příkladem, na kterém se vysvětlují různé pravděpodobnostní modely, je tahání kuliček z různých nádob (přinejmenším už od 19. století). Nedává moc praktický smysl něco takového počítat. Úvaha, kterou na tomto příkladu provedeme, se nám ale bude hodit později. Mějme dvě krabičky a v každé deset barevných kuliček. V krabičce a je 6 modrých a 4 zelené kuličky, v krabičce b je jedna modrá 9 zelených. Vybereme jednu z krabiček náhodně a vytáhneme jednu kuličku. Dokud nevíme, jakou má kulička barvu, nemáme žádný důvod preferovat některou z krabiček. Jakmile zjistíme, že kulička má zelenou barvu, začne nám být jasné, že je pravděpodobnější, že pochází z krabičky b. Míru naší jistoty můžeme odhadnout pomocí Bayesovy věty. Zajímá nás pravděpodobnost, že jsme vybrali krabičku b, za podmínky, že kulička je zelená: P(b z) = P(z b)p(b). P(z) Pravděpodobnost, že z krabičky b vytáhneme zelenou kuličku (P(z b)), je 9 ; pravděpodobnost, že zvolíme krabičku b je 1. Zbývá nám odhadnout jmenovatele tedy pravděpodobnost, 10 2 že bude vytažena zelená kulička. Zajímá nás, jaká je pravděpodobnost, že byla tažena zelená kulička, jedno z jaké krabičky. Protože kuličku nelze vytáhnout napůl z jedné a napůl z druhé krabičky, jedná se o logickou disjunkci a můžeme pravděpodobnost vyjádřit jako součet pravděpodobnosti událostí, že byla zelená kulička tažena z každé krabičky: P(z) = P(z, a) + P(z, b) Sdružené pravděpodobnosti P(z, a) a P(z, b) stále neznáme, ale můžeme je opět rozepsat podle definice podmíněné pravděpodobnosti. Dostáváme P(z) = P(z a)p(a) + P(z b)p(b) = 4 10 1 2 + 9 10 1 2 = 13 10 1 2 Po dosazení dostaneme pravděpodobnost toho, že kulička pocházela z krabičky b rovnu 9 70 %. To je v souladu s úvahou selským rozumem, že když je kulička zelená, nejspíš 13 pochází z krabičky b, když je jich tam více. V toto příkladě získaná pravděpodobnost není odhad četnosti při opakování experimentu do nekonečna. Událost vytažení kuličky se jednou pro vždy odehrála. Jediné, co můžeme počítat, jak moc jsme si jisti, že byla vytažena z jedné nebo druhé krabičky. 1.2 Model Když klasifikaci používáme pravděpodobností modely, odhadujeme pravděpodobnost (jistotu) P(y x), tedy pravděpodobnost přiřazení značky y, je-li dán vektor rysů x. V základní verzi, kterou si ukážeme pracuje Naivní Bayes pouze s kategoriálními proměnnými. Pravděpodobnost klasifikace si rozepíšeme pomocí Bayesovy věty: P(y x) = P(x y)p(y). (1.4) Px 3

rys možné hodnoty věk 10 19, 20 29, 30 39, 40 49,, 90-99 menopauza předmenstruační věk, věk do 40 let, věk nad 40 let velikost primárního nádoru 0 4 mm, 5 9 mm, 10 14 mm,, 55 59 mm počet mízních uzlin s nádorovými buňkami 0-2, 3-5, 6-8, 9-11, 12-14,, 36 39 ložisko zapouzdřeno ano, ne stupeň maligity 1, 2, 3 prs levý, pravý kvadrant umístění nádoru levý horní, levý spodní, pravý horní, pravý dolní, střední ozařování ano, ne Výraz ve jmenovateli nezávisí na značce y. Protože chceme klasifikovat, nemusí nás zajímat konkrétní odhad nejistoty, zajímá nás pouze, jaká značka má nejvyšší pravděpodobnost nejvyšší hodnotu čitatele. Pokud by nás zajímal i jmenovatel, můžeme ho spočítat obdobně jako v našem příkladu s krabičkami. Naše odhadnutá klasifikace ŷ je taková značka y, pro kterou je hodnota čitatele nejvyšší. Formálně píšeme ŷ = argmax P(x y)p(y). (1.5) y Zápis argmax y f(y) zde znamená y, pro nějž je hodnota výrazu f(y) nejvyšší. Odhadování pravděpodobností v předchozí rovnici si vysvětlíme na příkladu další úlohy, která bývá uváděna v literatuře o strojovém učení. Úlohou je odhadování možnosti recidivy karcinomu prsu. K této úloze jsou k dispozici anonymizované informace o 277 pacientkách z roku 1988. Rysy, které budeme používat k rozhodnutí jsou uvedeny v tabulce??. Sada rysů i počet pacientek jsou velmi omezené. Každého určitě napadne, že existují i další faktory, které hrají roli například genetická zátěž, zda kouří, míra stresu, které je vystavena atd. Navíc data byla sbírána v 80. letech v Lublani. Lze tedy očekávat, že skupina pacientek byla etnicky homogenní a v socialistické se Jugoslávii bez velkých ekonomických rozdílů, se pacientky se příliš nelišily svým životním stylem. Model tyto informace nemá k dispozici a rozhoduje vždy stejně. Pravděpodobnost P(y) v rovnici?? je pravděpodobnosti že dojde k recidivě nádoru bez ohledu na to, jaké hodnoty jsme u pacientky naměřili. Tuto pravděpodobnost můžeme jednoduše odhadnout jako poměr pacientek, u kterých došlo k recidivě ku celkovému počtu pacientek. Stejně spočítáme nepodmíněnou pravděpodobnost, že k recidivě nedojde. Situace je komplikovanější při odhadu pravděpodobnosti P(x y) tedy pravděpodobnosti naměřených hodnot pacientky za předpokladu (za podmínky), že dojde k recidivě nádoru. Triviální způsob, jak pravděpodobnost odhadnout, by bylo spočítat, jak často byly mezi pacientkami ty, které vykazovaly přesně tuto kombinaci rysů. Možných kombinací rysů je ale obvykle řádově více, než mám k dispozici trénovacích datech žádná pacientka s naprosto 4

stejnou kombinací rysů nevyskytuje. To je problém, který musí řešit všechny klasifikační algoritmy, které jsem si představili. Metoda nejbližších sousedů (kapitola??) řeší tento problém hledáním podobných instancí. Perceptronový algoritmus (kapitola??) problém jej obchází tak, že vůbec neuvažuje o společném výskytu rysů a jednotlivým rysům přiřazuje různé váhy. Obdobný přístup volí i naivní bayesovský klasifikátor, který předpokládá takzvanou podmíněnou nezávislost (EN: conditional independence) rysů. Tedy, je-li už dána značka, předpokládáme, že pravděpodobnosti jednotlivých rysů jsou vzájemně nezávislé. Podle definice statistické nezávislosti (rovnice 1.1), rozepíšeme podmíněnou pravděpodobnost takto: P(x y) = P(x 1,..., x n y) P(x 1 y) P(x n y). Předpoklad podmíněné pravděpodobnosti je pochopitelně značně zjednodušující. Rysy, které spolu systematicky souvisí, přináší modelu částečně tu samou informaci. Protože ale předpokládáme vzájemnou nezávislost rysů, je tato informace ve skutečnosti započítána víckrát a zkresluje rozhodnutí modelu. V tomto případě mohou být takovými rysy věk pacientky a informace o tom, zda prošla menopazou, které spolu souvisí. Podmíněnou pravděpodobnost pro i-tý P(x i y) odhadneme už jednoduše pomocí četnosti výskytu rysu v trénovacích datech. Je-li tímto rysem například věk ženy, vezmeme zvlášť ty, u kterých došlo k recidivě nádoru (y = +) a ty, kde nikoli (y = 0) a v rámci těchto kategorií (za těchto podmínek) spočítáme pravděpodobnost pro jednotlivé věkové kategorie. Pro každou věkovou kategorii a odhadneme P(x 0 = a y = 0) = c(x 0 = a y = 0) c(y = 0) a stejně pro y = 1, kde funkcí c se myslí počet trénovacích příkladů, splňující podmínku uvedenou jako argument funkce. Učení modelu spočívá ve spočítání četností, které potřebujeme pro výpočet pravděpodobností. Kód může vypadat například takto. 1 class NaiveBayes( object): 2 def init ( self, training_data): 3 self. feature_count = len( training_data [0][0]) 4 self. data_size = len( training_data) 5 # Tabulka s pocty instanci v jednotlivych tridach 6 self. labels_counts = {} 7 # Tabulka s hodnotami rysu v jednotlivych tridach 8 self. cond_feature_counts = {} 9 10 for feature_vector, label in training_data: 11 # Pokud jsme label, jeste nevideli, zalozime ji polozku v obou 12 # dvou tabulkach 13 if label not in labels_counts: 14 # Znacku jsme jeste nevideli ani jednou 15 self. labels_counts[ label] = 0 16 # Pripravime zvlastni tabulku pro kazdy r y s 17 self. cond_feature_counts[ label] = [{}] * feature_count 18 19 self. labels_counts[ label] += 1 5

20 for i in range( self. feature_count): 21 feature_value = feature_vector[i] 22 if feature_value not in self. cond_feature_counts[ label][ i]: 23 self. cond_feature_counts[ label][ i][ feature_value] = 1 24 else 25 self. cond_feature_counts[ label][ i][ feature_value] += 1 Model implementujeme v Pythonu jako třídu. Při inicializaci objektu se spočítají parametry modelu, které později využívají při klasifikaci. Metoda, která provádí samotnou klasifikaci se dá naprogramovat takto. 1 def classify( self, instance): 2 # Pro zajisteni numericke stability si rozepiseme nasobeni 3 # pravdepodobnosti jako nejprve nasobeni vsech citatelu a potom deleni vsemi 4 # jmenovateli 5 best_score = 0 6 best_label = None 7 8 # Projdu vsechny mozne labely a pro kazdy spocitam skore 9 for label in self. labels_counts: 10 label_count = self. labels_counts[ label] 11 count_product = np. prod( 12 [ self. cond_feature_counts[ label][ i]. get( feature_value, default =0.0) 13 for i, feature_value in enumerate( instance) ]) 14 score = count_product / 15 labels_counts ** ( self. feature_count - 1.0) / self. data_size 16 if score > best_score: 17 best_score = score 18 best_label = label 19 20 return best_label JL: Výsledky klasifikátoru a porovnat s jinými: decision tree, knn Hamming 1.3 Cvičení JL: Tabulka: heatmapa četnosti jednotlivých rysů V trénovacích datech jsou kombinace rysy, které nejsou zastoupené vedou k odhadu nulové pravděpodobnosti v obou případech... zkuste transformovat množinu rysů tak, aby tyto případy zmizely. Dokážete takto zvýšit správnost klasifikace? V tabulce?? uvádíme výsledek učení perceptronovým algoritmem. Jakým způsobem je potřeba transformovat rysy, aby bylo možné perceptron použít? Shrnutí Pravděpodobnostní model Bayesova věta 6