Učení z klasifikovaných dat

Podobné dokumenty
Rozhodovací stromy a jejich konstrukce z dat

Rozhodovací stromy a jejich konstrukce z dat

3.1 Úvod do problematiky

Výpočetní teorie strojového učení a pravděpodobně skoro správné (PAC) učení. PAC učení 1

DATA MINING KLASIFIKACE DMINA LS 2009/2010

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Pravděpodobně skoro správné. PAC učení 1

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Testování modelů a jejich výsledků. tomu, co jsme se naučili?

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

UČENÍ BEZ UČITELE. Václav Hlaváč

Předzpracování dat. Lenka Vysloužilová

Hledání kořenů rovnic jedné reálné proměnné metoda půlení intervalů Michal Čihák 23. října 2012

12. Globální metody MI-PAA

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Změkčování hranic v klasifikačních stromech

Chybějící atributy a postupy pro jejich náhradu

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

5.1 Rozhodovací stromy

Moderní systémy pro získávání znalostí z informací a dat

Strojové učení Marta Vomlelová

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 21.

Umělá inteligence II

Statistická teorie učení

8 Přednáška z

PQ-stromy a rozpoznávání intervalových grafů v lineárním čase

Získávání znalostí z dat

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Lineární klasifikátory

Jana Vránová, 3. lékařská fakulta UK

Přednáška 13 Redukce dimenzionality

Kybernetika a umělá inteligence, cvičení 10/11

Pokročilé neparametrické metody. Klára Kubošová

Rozdělování dat do trénovacích a testovacích množin

Rozhodovací stromy. Úloha klasifikace objektů do tříd. Top down induction of decision trees (TDIDT) - metoda divide and conquer (rozděl a panuj)

Úloha - rozpoznávání číslic

Dnes budeme učit agenty, jak zlepšit svůj

Rozhodovací pravidla

Náhodné chyby přímých měření

PRAVDĚPODOBNOST A STATISTIKA. Neparametrické testy hypotéz čast 1

Modely Herbrandovské interpretace

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

Analýza dat pomocí systému Weka, Rapid miner a Enterprise miner

Prohledávání svazu zjemnění

ANALÝZA A KLASIFIKACE DAT

Instance based learning

CVIČNÝ TEST 15. OBSAH I. Cvičný test 2. Mgr. Tomáš Kotler. II. Autorské řešení 6 III. Klíč 15 IV. Záznamový list 17

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

TEORIE PRAVDĚPODOBNOSTI. 2. cvičení

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody

Usuzování za neurčitosti

Základy matematické analýzy

sin(x) x lim. pomocí mocninné řady pro funkci sin(x) se středem x 0 = 0. Víme, že ( ) k=0 e x2 dx.

AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Hodnocení klasifikátoru Test nezávislosti. 14. prosinec Rozvoj aplikačního potenciálu (RAPlus) CZ.1.07/2.4.00/

Zdůvodněte, proč funkce n lg(n) roste alespoň stejně rychle nebo rychleji než než funkce lg(n!). Symbolem lg značíme logaritmus o základu 2.

Státnice odborné č. 20

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

Grafika na počítači. Bc. Veronika Tomsová

JEDNOVÝBĚROVÉ TESTY. Komentované řešení pomocí programu Statistica

Úvod do mobilní robotiky AIL028

Trénování sítě pomocí učení s učitelem

Testování statistických hypotéz

Binární vyhledávací stromy pokročilé partie

8. Strojové učení. Strojové učení. 16. prosince Václav Matoušek. 8-1 Úvod do znalostního inženýrství, ZS 2014/15

Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy

UNIVERZITA PARDUBICE. 4.4 Aproximace křivek a vyhlazování křivek

Úvod do mobilní robotiky AIL028

State Space Search Step Run Editace úloh Task1 Task2 Init Clear Node Goal Add Shift Remove Add Node Goal Node Shift Remove, Add Node


Mann-Whitney U-test. Znaménkový test. Vytvořil Institut biostatistiky a analýz, Masarykova univerzita J. Jarkovský, L. Dušek

Cvičná bakalářská zkouška, 1. varianta

Dynamické programování

Křivky a plochy technické praxe

Kombinování klasifikátorů Ensamble based systems

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

2 Hlavní charakteristiky v analýze přežití

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

jedna hrana pro každou možnou hodnotu tohoto atributu; listy jsou označeny předpokládanou hodnotou cílového atributu Atribut Outlook

Stromy, haldy, prioritní fronty

Automatizace je proces při němž je řídicí funkce člověka nahrazována činností

Metody založené na analogii

Matematika pro informatiky

REÁLNÁ FUNKCE JEDNÉ PROMĚNNÉ

Globální matice konstrukce

VZOROVÝ TEST PRO 3. ROČNÍK (3. A, 5. C)

13. Lineární programování

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 12.

Informační systémy pro podporu rozhodování

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2016

13 Barvy a úpravy rastrového

7. Rozdělení pravděpodobnosti ve statistice

Počítačové šachy. Otakar Trunda

Výpočetní teorie učení. PAC učení. VC dimenze.

Příklad 1. Řešení 1 ŘEŠENÉ PŘÍKLADY Z MV2 ČÁST 11

autorovu srdci... Petr Hliněný, FI MU Brno 1 FI: MA010: Průnikové grafy

Transkript:

Učení z klasifikovaných dat

Příklad počítačová hra. Můžeme počítač naučit rozlišovat přátelské a nepřátelské roboty? Učení s učitelem: u některých objektů už víme, jakou mají povahu (klasifikace) Neparametrická úloha: Nic nevíme o pravděpodobnostní distribuci jednotlivých objektů 2

Příklad počítačová hra 1. Můžeme se naučit roboty rozlišit na základě krátké zkušenosti? přátelští nepřátelští 3

Reprezentace úlohy pomocí atributů Klasifika ce Usmíva_se kravata tělo hlava v_ruce přítel ano ano kruh 3úhelník nic Můžeme navrhnout odpovídající klasifikační algoritmus? přítel ne ne 3úhelník 3úhelník balon nepřítel ne ano čtverec 3úhelník balón nepřítel ne ano čtverec kruh meč přítel ano ne 3úhelník kruh květ přítel ano ano kruh kruh nic nepřítel ano ne čtverec čtverec nic nepřítel ne ne kruh kruh meč přátelští nepřátelští Možná řešení pro další objekt: 1. Vyhledání objektu v tabulce předchozích zkušeností, 2. Hledání co nejpodobnějšího mezi všemi známými, 3.??? 4

Metoda n nejbližších sousedů Pro nový objekt je vypočtena vzdálenost od všech objektu v trén. příkl. Výběr všech n trén. příkladů (= množina T(x,n) ), které jsou k novému objektu x nejblíž. Objekt x získá klasifikaci, která je v T(x,n) ) nejčastější. Možné zobecnění: hledá se nejlepší vážicí koeficient pro jednotlivé atributy. 5

Metoda n nejbližších sousedů 6 Pozor na následující vlastnosti této metody: Je velmi citlivá na výběr parametru n - počet hledných sousedů U dat s vysokým počtem atributů hrozí nebezpečí, že vzdáoenost bude ovlivněna nějakým irelevantním atributem s velký rozsahem hodnot (curse of dimensionality)

Rozhodovací strom 1 pro danou množinu příkladů Klasifika Usmíva_se kravata tělo hlava v_ruce ce přítel ano ano kruh 3úhelník nic přítel ne ne 3úhelník 3úhelník balon nepřítel ne ano čtverec 3úhelník balón kravata nepřítel ne ano čtverec kruh meč přítel ano ne 3úhelník kruh květ ano ne přítel ano ano kruh kruh nic nepřítel ano ne čtverec čtverec nic nepřítel ne ne kruh kruh meč úsměv tělo ano ne jiné přítel nepřítel nepřítel přítel 7

Rozhodovací strom 2 pro tutéž množinu příkladů hlava Klasifika Usmíva_se kravata tělo hlava v_ruce ce přítel ano ano kruh 3úhelník nic přítel ne ne 3úhelník 3úhelník balon úsměv nepřítel nepřítel ne ano čtverec 3úhelník balón nepřítel ne ano čtverec kruh meč přítel ano ne 3úhelník kruh květ přítel ano ano kruh kruh nic nepřítel ano ne čtverec čtverec nic nepřítel ne ne kruh kruh meč ano ne přítel kravata úsměv ano ne ano ne nepřítel 8 přítel přítel nepřítel

Rozhodovací strom 3 pro tutéž množinu příkladů Klasifika Usmíva_se kravata tělo hlava v_ruce ce přítel ano ano kruh 3úhelník nic Který strom je lepší a jak jej najdeme? přítel ne ne 3úhelník 3úhelník balon nepřítel ne ano čtverec 3úhelník balón nepřítel ne ano čtverec kruh meč přítel ano ne 3úhelník kruh květ přítel ano ano kruh kruh nic nepřítel ano ne čtverec čtverec nic nepřítel ne ne kruh kruh meč tělo ano přítel v_ruce nepřítel 9 nepřítel meč nic přítel Ockamova břitva: jednoduchý strom je lepší!

Proč dáváme přednost jednoduchým hypotézám? Argument : Jednoduchých hypotéz je výrazně méně než složitých. Proto, pokud některé z jednoduchých h. data odpovídají, pak asi nejde o náhodný jev Occamova břitva : Nejlepší hypotéza je ta nejjednodušší, která odpovídá datům. Související problémy: - proč zrovna tato malá množina? - pozor na použitý jazyk! 10 William of Ockham, born in the village of Ockham in Surrey (England) about 1285, was the most influential philosopher of the 14th century and a controversial theologian. witten & eibe

Hledání atributu poskytujícího nejvíce informací Klasifikace úsměv kravata tělo hlava v_ruce přítel ano ano kruh 3úhelník nic přítel ne ne 3úhelník 3úhelník balon nepřítel ne ano čtverec 3úhelník balón nepřítel ne ano čtverec kruh meč přítel ano ne 3úhelník kruh květ přítel ano ano kruh kruh nic nepřítel ano ne čtverec čtverec nic nepřítel ne ne kruh kruh meč Souhrn významu atributů dle klasifikace 11 úsměv Kravata tělo=3úh. hlava=3úh v_r.=nic Ano:3P,1N Ne: 1P,3N Ano:2P,2N Ne: 2P,2N Ano:2P,0N Ne: 2P,4N Ano:2P,1N Ne:2P,3N Ano:2P,1N Ne: 2P,3N

Indukce rozhodovacího stromu z trénovací množiny dáno: S... trénovací množina (množina klasifikovaných příkladů) 1. Nalezni "nejlepší" atribut at 0 pro S (t.j. atribut, jehož hodnoty nejlépe diskriminují mezi pozitivními a neg. příklady) a vybraným atributem ohodnoť kořen vytvářeného stromu. 2. Rozděl množinu S na podmnožiny S 1,S 2,...,S n podlemožných hodnot atributu at 0 a pro každou množinu příkladů S i vytvoř nový uzel jako následníka právě zpracovávaného uzlu (kořenu) 3. Pro každý nově vzniklý uzel s přiřazenou podmnožinou S i proveď: Jestliže všechny příklady v S i mají tutéž klasifikaci (všechny jsou pozitivní nebo všechny jsou negativní), 12 pak uzel ohodnocený S i je prohlášen za list vytvářeného rozhodovacího stromu (a tedy se už dále nevětví), jinak jdi na bod 1 s tím, že S : = S i.

Entropie množiny S vzhledem k dané klasifikaci Posuzuje různorodost klasifikace prvků z množiny S Nechť klasifikaci představuje atribut y, který má jen 2 hodnoty {0,1}. Pak označme S 0 = {z S : z y = 0} a S 1 = {z S : z y = 1} Entropy(S ) = - S 0 / S * log 2 S 0 / S - S 1 / S * log 2 S 1 / S, kde A označuje mohutnost množiny A 13 Je-li S 0 =, pak Entropy (S )=0 Je-li S 0 = S 1, pak Entropy (S )=1 Je-li S 0 = S, pak Entropy (S )= 0

Volba nejlepšího atributu pro množinu příkladů S vzhledem k dané klasifikaci Kriterium minimální entropie rozkladu (KMER) Nechť at je pevně zvolený atribut, který může nabývat hodnot v 1 až v n. Označme S i = {z S : z at = v i } podmnožinu S, která obsahuje právě ty objekty, které v atributu at maji hodnotu v i Vážená entropie E(S,at) rozkladu S podle hodnot atributu at charakterizuje čistotu klasifikace v jednotlivých složkách rozkladu S a je definována E(S,at) = n i=1 S i / S * E(S i ) KMER vypočte E(S,at) pro všechny atributy at a jako nejlepší atribut at 0 zvolí ten z nich, pro který je hodnota E(S,at 0 ) nejmenší 14

Základní algoritmus ID3 Realizuje prohledávání prostoru všech stromů, které lze zkonstruovat v jazyku trénovacích dat : shora dolů s použitím hladové strategie Volba atributu pro větvení na základě charakterizace (ne)homogenity nově vzniklého pokrytí (používají se různé míry), např.: Kriterium minimalní entropie rozkladu Informační zisk (gain) odhaduje předpokládané snížení entropie pro pokrytí vzniklé použitím hodnot odpovídajícího atributu Maximalizace tohoto kritéria vede k témuž výsledku jako KMER! 15

Nebezpečí použití kriteria KMER Co se stane, pokud některý atribut má hodně skoro unikátních hodnot, které takřka jednoznačně charakterizují každý trénovací příklad? Například pro rodné číslo je S i = 1 a tedy E(S i ) = 0 a E(S, rodne_cislo ) = 0 Tento agrument je tedy kriteriem KMER vybrán jako nejlepší! Je takový atribut opravdu užitečný pro testovací data? 16

Nebezpečí použití kriteria KMER Co se stane, pokud některý atribut má hodně skoro unikátních hodnot, které takřka jednoznačně charakterizují každý trénovací příklad? Například pro rodné číslo (RČ) je S i = 1 a tedy E(S i ) = 0 a E(S, rodne_cislo ) = 0 Tento agrument je tedy kriteriem KMER vybrán jako nejlepší! Je takový atribut opravdu užitečný pro testovací data? Ne, má malou generalizační schopnost! Nebylo by vhodné takovou situaci nějak penalizovat? JAK? Zde (pro KMER = 0) nepomůže penalizace pomocí multiplikačního koeficientu! Raději využijeme kriterium zisku Gain E(S,at) = E(S) - E(S,at) = E(S) - n i=1 S i / S * E(S i ) které je v tomto případě nenulové a které je třeba naopak maximalizovat: 17 V případě RČ by pomohlo Gain vydělit počtem skupin, do nichž se původní množina rozpadá!

Jak charakterizovat rozklad množiny S na c disjunktních podmnožin S i podle všech hodnot uvažovaného atributu A? Stačí počet skupin? Raději zavedeme SplitInformation odpovídá entropii rozdělení S podle všech hodnot atributu A. Např. když se S rozpadne na S podmnožin, pak SplitInformation (S, A ) = (log 2 S ). Co když se S rozpadne na 2 stejně velké části? GainRatio penalizuje atributy s příliš mnoha hodnotami (protože při tvorbě stromu vybíráme atributy s max hodnotou tohoto kriteria! 18

Volba atributů a další speciální situace Jak se pracuje s reálnými hodnotami? používá se diskretizace v průběhu tvorby stromu Lze zohlednit cenu získání hodnoty atributu? Cenou lze penalizovat Gain nebo GainRatio 19

Volba atributů a speciální situace 1 Reálné hodnoty používá se diskretizace JAK SE VOLÍ VHODNÉ MEZNÍ HODNOTY? Vhodné řešení (Fayyad 91): Uspořádejte příklady podle velikosti zpracovávaného atributu a zvolte jako kandidátní mezní hodnoty ty, které leží v intervalu, kde se mění klasifikace. Hodnota, která maximalizuje Gain, je nutně jednou z nich. 20

Volba atributů a speciální situace 2 Různé ceny pro získání hodnoty atributu. Určíme-li cenu Cost(A) v intervalu <0,1>, pak použijeme změněné kriterium, např. 21

22 Používaný postup prohledávání

23 Vlastnosti ID3: důsledky postupu prohledávání Pro klasifikační úlohu s diskrétními atributy je prohledávaný prostor hypotéz úplný (tj. je schopný reprezentovat libovolnou možnou cílovou funkci) --> existuje mnoho hypotéz konzistentních s daty! Aktuální množina hypotéz je vždy jednoprvková (hladová volba následníka), nelze jej tedy použít pro odpověď na dotaz kolik je alternativních stromů konzistentních s daty? Nepoužívá zpětný chod --> možnost uvíznutí v lokálním optimu Rozhoduje se na základě všech příkladů (nikoliv inkrementálně) --> metoda není příliš ovlivněna šumem

Kdy je vhodné použít algoritmy pro konstrukci rozhodovacího stromu? Cílová funkce má několik (málo) diskrétních hodnot (jedná se o klasifikační problém) Instance trénovacích dat mají jednotný formát popisující hodnoty atributů Nevadí, pokud trénovací data jsou zašuměná Nebo obsahují chybějící hodnoty Je potřeba reprezentovat disjunkci podmínek (pravidla) 24

Otázky související s ID3 Jak velké stromy konstruovat? Až do pokrytí všech příkladů? Co s přeučením? Spojitý definiční obor atributů Metody volby nejvhodnějšího atributu Atributy o různých cenách Chybějící hodnoty??? 25

Přeučení Nechť H je prostor hypotéz. Hypotéza h H je přeučená, pokud exituje jiná hypotéza h1 H taková, že chyba h na trénovacích datech je menší než chyba h1, avšak na celém prostoru instancí uvažovaných objektů je chyba h1 menší než chyba h Často pozorovaná vlastnost zkonstruovaných stromů 26

Jak se vyhnout přeučení? Jak zvolit správnou velikost stromu? Jak získat strom správné velikosti? 1. Zastavit růst stromu dřív než jsou vyčerpána všechna trénovací data 2. Prořezávání hotového stromu ukazuje se jako zvlášť užitečné! Volba vhodného prořezání se provádí pomocí validační množiny dat (musí být vybraná nezávisle, tedy bez náhodných vlivů případně přítomných v trénovacích datech). Algoritmus prořezávání redukce chyby : Vyberte uzel, odstraňte podstrom, v něm začínající a přiřaďte většinovou klasifikaci. Pokud se chyba na validačních datech zmenšila, proveďte uvedené proříznutí (ze všech možností vyberte tu s největším zlepšením). 27

Hodnocení přesnosti klasifikace v závislosti na složitosti použitého stromu Výsledky na hladké linii odpovídají stromům získaným prořezáním tak, jak bylo otestováno na validačních datech (jiná než testovací!!!) 28

Rozhodovací strom jako logický výraz Klasifika Usmíva_se kravata tělo hlava v_ruce ce přítel ano ano kruh 3úhelník nic přítel ne ne 3úhelník 3úhelník balon nepřítel ne ano čtverec 3úhelník balón kravata nepřítel ne ano čtverec kruh meč přítel ano ne 3úhelník kruh květ ano ne přítel ano ano kruh kruh nic nepřítel ano ne čtverec čtverec nic nepřítel ne ne kruh kruh meč Usmívá_se tělo ano ne jiné přítel nepřítel nepřítel přítel (Kravata=ano & usmívá_se=ano) V (Kravata=ne & tělo=3úh.) -> přítel 29

Závěrečné prořezávání pravidel (rule post-pruning) použité v C4.5 1. Vytvořte přeučený rozhodovací strom 2. Zapište výsledný strom ve tvaru disjunkce pravidel (každá větev = jedno pravidlo) 3. Každé jednotlivé pravidlo co nejvíc prořežte (odstraní se postupně ty podmínky, které nezhorší jeho klasifikační přesnost) 4. Uspořádejte výsledná pravidla podle jejich odhadnuté přesnosti a dále je používejte jako rozhodovací seznam Odhad klasifikační přesnosti pravidla na validační množině (= relativní počet správných závěrů) na trénovacích datech (= pesimistický odhad počtu správých závěrů za předpokladu binomického rozdělení ) 30

31 Příklad: Létání na simulátoru F16 Úkol: sestavit řídící systém pro ovládání leteckého simulátoru F16 tak, aby splnil předem definovaný plán letu daný takto: 1. vzlet a výstup do výšky 2000 stop 2. let v dané výšce směrem N do vzdálenosti 32000 stop od místa startu 3. zahnout vpravo v kurzu 330 4. ve vzdálenosti 42000 stop od místa startu (ve směru S-N) provést obrat vlevo a zamířit zpět do místa startu (obrat je ukončen při kurzu mezi 140 a 180 ) 5 vyrovnat směr letu s přistávací dráhou, tolerance 5 pro kurz a 10 pro výchylku křídel oproti horizontu 6. klesat směrem k počátku přistávací dráhy 7. přistát Trénovací data: 3x30 letů (od 3 pilotů). Každý let popsán pomocí 1000 záznamů (poloha a stav letounu, pilotem provedený řídící zásah)

on_gound g_limit wing_stall Záznam: Poloha a stav boolean: je letadlo na zemi? boolean: je překročen g limit letadla? boolean: je letadlo stabilní? twist integer: 0-360, výchylka křídel vůči obzoru elevation azimuth roll_speed elev_speed integer: 0-360, výchylka trupu vůči obzoru integer: 0-360, směr letu integer: 0-360, rychlost změny výchylky křídel [ /s] integer: 0-360, rychlost změny výchylky trupu [ /s] azimuth_speedinteger: 0-360, rychlost změny kurzu [ /s] airspeed climbspeed 32 integer: rychlost letadla v uzlech integer: rychlost změny výšky [stop/s]

E/W distance N/S distance fuel 33 Řízení: rollers elevator thrust flaps Záznam: Poloha a stav + Řízení real: vzdálenost ve směru východ-západ od místa startu real: vzdálenost ve směru sever-jih od místa startu integer: váha paliva v librách real: nastavení ovladače horizontálního vychýlení real: nastavení ovladače vertikálního vychýlení integer: 0-100%, plyn integer: 0, 10 nebo 20, nastavení křídlových lopatek Každá ze 7 fází letu vyžaduje vlastní typ řízení (jiné zásahy pilota): trénovací příklady rozděleny do 7 odpovídajících skupin. V každé skupině je zkonstruován samostatný rozhodovací strom pro každý typ řídícího zásahu (rollers, elevator, thrust, flaps), t.j. 7 x 4 stromů ) Ref. Sammut C., Hurst S., Kedzier D., Michie D.: Learning to fly. In D.Sleeman&P.Edwards: Proc. of the ninth int.conference on machine learning. Aberdeen (pp.385-393), Morgan Kaufann 1992

Zkuste navrhnout nejjednodušší klasifikační algoritmus přátelští nepřátelští 34