Přednáška 10: Kombinování modelů

Podobné dokumenty
Vytěžování znalostí z dat

Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Vytěžování znalostí z dat

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

Kombinování klasifikátorů Ensamble based systems

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Kybernetika a umělá inteligence, cvičení 10/11

Statistická analýza dat

Odhady Parametrů Lineární Regrese

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Vytěžování znalostí z dat

Miroslav Čepek

Obsah přednášky. 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacking 5. Boosting 6. Shrnutí

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Vytěžování znalostí z dat

AVDAT Mnohorozměrné metody, metody klasifikace

Zadání Máme data hdp.wf1, která najdete zde: Bodová předpověď: Intervalová předpověď:

AVDAT Nelineární regresní model

Pravděpodobně skoro správné. PAC učení 1

Strojové učení Marta Vomlelová

Stavový model a Kalmanův filtr

Vytěžování znalostí z dat

Klasifikace a rozpoznávání

oddělení Inteligentní Datové Analýzy (IDA)

Pokročilé neparametrické metody. Klára Kubošová

Měření dat Filtrace dat, Kalmanův filtr

Základy vytěžování dat

Některé potíže s klasifikačními modely v praxi. Nikola Kaspříková KMAT FIS VŠE v Praze

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

AVDAT Klasický lineární model, metoda nejmenších

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

4EK211 Základy ekonometrie

Strojové učení Marta Vomlelová

Evoluční algoritmy. Podmínka zastavení počet iterací kvalita nejlepšího jedince v populaci změna kvality nejlepšího jedince mezi iteracemi

Odhad stavu matematického modelu křižovatek

Extrakce a selekce příznaků

DATA MINING KLASIFIKACE DMINA LS 2009/2010

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Matematické modelování Náhled do ekonometrie. Lukáš Frýd

Přednáška 13 Redukce dimenzionality

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Pokročilé neparametrické metody. Klára Kubošová

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?

PSY117/454 Statistická analýza dat v psychologii přednáška 8. Statistické usuzování, odhady

Instance based learning

Markovovy modely v Bioinformatice

Analýza rozptylu. PSY117/454 Statistická analýza dat v psychologii Přednáška 12. Srovnávání více než dvou průměrů

Úloha - rozpoznávání číslic

WORKSHEET 1: LINEAR EQUATION 1

Statistická teorie učení

Cvičení 3. Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc.

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Lineární diskriminační funkce. Perceptronový algoritmus.

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Klasifikace a rozpoznávání. Lineární klasifikátory

Pokročilé neparametrické metody. Klára Kubošová

Moderní systémy pro získávání znalostí z informací a dat

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

Vytěžování znalostí z dat

O kurzu MSTU Témata probíraná v MSTU

KLASIFIKAČNÍ A REGRESNÍ LESY

Dobývání dat a strojové učení

UČENÍ BEZ UČITELE. Václav Hlaváč

Předzpracování dat. Lenka Vysloužilová

BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni

Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru.

Statistická analýza dat v psychologii. Věci, které můžeme přímo pozorovat, jsou téměř vždy pouze vzorky. Alfred North Whitehead

Testování modelů a jejich výsledků. Jak moc můžeme věřit tomu, co jsme se naučili?

Vytěžování znalostí z dat

LDA, logistická regrese

Aplikovaná numerická matematika

Neuronové sítě (11. přednáška)

Intervalová data a výpočet některých statistik

Analýza dat pomocí systému Weka, Rapid miner a Enterprise miner

Uni- and multi-dimensional parametric tests for comparison of sample results

Algoritmy a struktury neuropočítačů ASN P3

Kombinatorická minimalizace

Eva Fišerová a Karel Hron. Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci.

Intervalové Odhady Parametrů

Testování modelů a jejich výsledků. tomu, co jsme se naučili?

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.

Bodové a intervalové odhady parametrů v regresním modelu

Lineární klasifikátory

5EN306 Aplikované kvantitativní metody I

PRODEJNÍ EAUKCE A JEJICH ROSTOUCÍ SEX-APPEAL SELLING EAUCTIONS AND THEIR GROWING APPEAL

Získávání znalostí z dat

PRAVDĚPODOBNOST A STATISTIKA

Dyson s Coulomb gas on a circle and intermediate eigenvalue statistics

Změkčování hranic v klasifikačních stromech

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. dohnal@nipax.cz

Úvod do problematiky měření

1. Přednáška. Ing. Miroslav Šulai, MBA

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

VY_32_INOVACE_06_Předpřítomný čas_03. Škola: Základní škola Slušovice, okres Zlín, příspěvková organizace

4EK211 Základy ekonometrie

Vojtěch Franc. Biometrie ZS Poděkování Janu Šochmanovi za slajdy vysvětlující AdaBoost

Využití metod strojového učení v bioinformatice David Hoksza

Transkript:

České vysoké učení technické v Praze Fakulta informačních technologií Katedra teoretické informatiky Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti MI-ADM Algoritmy data miningu (2010/2011) Přednáška 10: Kombinování modelů Pavel Kordík, FIT, Czech Technical University in Prague

Osnova přednášky Netflix prize Teoretické aspekty kombinování modelů Skupina modelů Různorodost modelů Dekompozice chyb (rozptyl dat/systematická chyba modelu) Jaké modely kombinovat? Populární ensemble metody Bagging Boosting Stacking Algoritmus, co vyhrál milión $

Vyrobte mi klasifikátor, který je o 10% lepší než to co mám, a dostanete milion dolarů! http://www.netflixprize.com/ Učení s učitelem Trénovací data jsou množiny respondentů a jejich hodnocení (1,2,3,4,5 hvězdiček), které udělili jednotlivým filmům. Vytvoř klasifikátor, který dostane na vstup identifikaci uživatele a jím ještě nehodnocený film a vyprodukuje počet hvězdiček.

A kdo tedy vyhrál?

The Ensemble And lo, as if powered by gravity, Grand Prize Team and Vandelay Industries! began to draw in more and more members. And Vandelay went on to join forces with Opera Solutions, and then Vandelay and Opera united with Grand Prize Team, and then... and then... well, things got so complex we decided just to call ourselves The Ensemble. http://www.the-ensemble.com/content/meetteam Ale i druhý vítěz BellKor s Pragmatic Chaos je vlastně ensemble!

Takhle to vypadalo v květnu 2009

Vývoj soutěže

Rookies Thanks to Paul Harrison's collaboration, a simple mix of our solutions improved our result from 6.31 to 6.75

Arek Paterek My approach is to combine the results of many methods (also twoway interactions between them) using linear regression on the test set. The best method in my ensemble is regularized SVD with biases, post processed with kernel ridge regression http://rainbow.mimuw.edu.pl/~ap/ap_kdd.pdf

U of Toronto When the predictions of multiple RBM models and multiplesvd models are linearly combined, we achieve an error rate that is well over 6% better than the score of Netflix s own system. http://www.cs.toronto.edu/~rsalakhu/papers/rbmcf.pdf

A co tahoun celé soutěže? BellKor / KorBell Our final solution (RMSE=0.8712) consists of blending 107 individual results. blendingem rozuměj kombinování modelů

Chyba klesá s počtem modelů BellKor in BigChaos Jak a jaké modely kombinovat?

Princip kombinování modelů Skupina modelů (např. rozhodovacích stromů) se naučí na stejný (podobný) úkol. Výstupy naučených modelů se kombinují. Vstupní proměnné Model 1 Model 2 Model 3 Model N Výstupní proměnná Kombinace Výstupní proměnná Skupinový (ensemble) výstup

Různorodost ensemble modelů Co se stane, když budou všechny modely totožné? => Degradace na jeden model. Jak zajistíme, aby byly modely různorodé? Různé množiny trénovacích dat (počáteční podmínky) Různé metody konstrukce modelů Jak se dá měřit různorodost modelů? Odchylky výstupů na jednotlivých testovacích datech. Strukturální odlišnosti

Funguje to vůbec? Chceme zjistit, za jakých předpokladů se vyplatí modely kombinovat. Zajímá nás proč ensembling funguje. Potřebujeme k tomu analyzovat, čím je chyba modelů způsobena

Příklad výška lidí Cíl: odhadnout výšku dospělého muže. Přesněji: Najít odhad ŷ který minimalizuje střední hodnotu chyby E y {(y-ŷ) 2 } přes celou populaci. p(y) hustota pravděpodobnosti 180 y

Jak by na to šel pan Bayes? Změřil by všechny dospělé muže v celé populaci, vypočetl střední hodnotu E y {y} a prohlásil ji za optimální odhad. Potlesk, úloha vyřešena, výsledek je: E y {y} = y= p ( y) y Ale v reálu je p(y) neznámá, její odhad je třeba zkonstruovat pomocí skupiny mužů LS={y 1,y 2,,y N }, jejichž výšku jsme změřili.

Výstup nějakého našeho modelu Protože skupina LS je náhodně zvolena, odhad ŷ bude také náhodná veličina. p LS (ŷ) Dobrý učicí algoritmus by měl fungovat dobře na libovolně zvolené skupině LS, tedy poskytnout minimální chybu v průměru pro různé LS: E=E LS {E y {(y-ŷ) 2 }} ŷ

Dekompozice bias/variance (1) var y {y} E y {y} y E = E y {(y-e y {y}) 2 } + E LS {(E y {y}-ŷ) 2 } = residuální chyba = minimální dosažitelná chyba = var y {y}

Dekompozice bias/variance (2) bias 2 E y {y} E LS {ŷ} ŷ E = var y {y} + (E y {y}-e LS {ŷ}) 2 + E LS {ŷ} = průměrný model (přes všechny LS) bias 2 = chyba průměrného modelu oproti modelu pana Bayese (optimálnímu) Náš algoritmus učení

Dekompozice bias/variance (3) var LS {ŷ} E LS {ŷ} ŷ E = var y {y} + bias 2 + E LS {(ŷ-e LS {ŷ}) 2 } var LS {ŷ} = variance našich modelů pro různé LS = důsledek přeučení

Dekompozice bias/variance (4) var y {y} bias 2 var LS {ŷ} E y {y} E LS {ŷ} ŷ E = var y {y} + bias 2 + var LS {ŷ}

Dekompozice bias/variance (5) E LS {E y x {(y-ŷ(x))^2}}=noise(x)+bias 2 (x)+variance(x) Šum(x) = E y x {(y-h B (x)) 2 } Kvantifikuje odchylku výstupu y od optimálního modelu h B (x) = E y x {y}. Bias 2 (x) = (h B (x)-e LS {ŷ(x)}) 2 : Chyba průměrného modelu vzhledem k optimálnímu. Variance(x) = E LS {(ŷ(x)-e LS {ŷ(x)) 2 } : Jak moc se predikce ŷ(x) liší pro různé učicí množiny LS.

Příklad (1) Najděte algoritmus produkující co nejlepší modely pro následující data: y x

Příklad (2) Optimální model: Vstup x, náhodná proměnná rovnoměrně rozložená v intervalu [0,1] y=h(x)+ε, kde ε N(0,1) je Bayesovský model y a šum y h(x)=e y x {y} x

Příklad algoritmus lineární regrese Modely mají malý rozptyl (variance), ale velké zaujetí (bias) nedoučení E LS {ŷ(x)}

Příklad algoritmus RBFN s počtem neuronů = mohutnost LS Nízké zaujetí (bias), velký rozptyl (variance) modelů přeučení E LS {ŷ(x)}

Zpět ke kombinování modelů Co se stane, když naučím 2 jednoduché modely na různých podmnožinách LS? y y=f1(x) y=f2(x) y= f1(x)+f2(x) 2 x

Ensembling snižujevarianci Trénovací data pro model 1 ensemble model Trénovací data pro model 2

Ensembling snižujebias model 2 model 1 ensemble model

Tedy:

Podobně pro klasifikaci? model 1 model 2 model 3 ensemble model třída 1 třída 1 a třída 2 b třída 2 Obrázky z TCD AI Course, 2005 hranice tříd Snižuje se bias nebo variance?

Jaké modely kombinovat? Co se stane, když zkombinují optimálně naučené modely? model 3 model 2 model 1 Výhodně se dají kombinovat jednoduché modely (tzv. weak learners). Modely musí být různorodé! Musejí redukujeme bias vykazovat různé chyby na jednotlivých trénovacích vzorech. ensemble model redukujeme varianci

Populární ensemble metody Bagging (Bootstrap Aggregating) Modely naučím nezávisle a jednoduše zkombinuji jejich výstup Boosting Modely se učí sekvenčně, trénovací data jsou závislá na chybách předchozích modelů Stacking Modely se učí nezávisle, kombinují naučením speciálního modelu

Bagging (1) E LS {Err(x)}=E y x {(y-h B (x)) 2 }+ (h B (x)-e LS {ŷ(x)}) 2 +E LS {(ŷ(x)-e LS {ŷ(x)) 2 } Myšlenka: průměrný model E LS {ŷ(x)} má stejný bias jako původní metoda, ale nulovou varianci Bagging (Bootstrap AGGregatING) : K vypočtení E LS {ŷ (x)}, potřebujeme nekonečně mnoho skupin LS (velikosti N) Máme však jen jednu skupinu LS, musíme si sami nějak pomoc

Bootstrapping: trocha historie Rudolf Raspe, Baron Munchausen s Narrative of his Marvellous Travels and Campaings in Russia, 1785 He hauls himself and his horse out of the mud by lifting himself by his own hair. This term was also used to refer to doing something on your own, without the use of external help since 1860s Since 1950s it refers to the procedure of getting a computer to start (to boot, to reboot)

Co je Bootstrap? X=(3.12, 0, 1.57, 19.67, 0.22, 2.20) Mean=4.46 X1=(1.57,0.22,19.67, 0,0,2.2,3.12) Mean=4.13 X2=(0, 2.20, 2.20, 2.20, 19.67, 1.57) Mean=4.64 X3=(0.22, 3.12,1.57, 3.12, 2.20, 0.22) Mean=1.74 statistika: odhad intervalu spolehlivosti

Příklad bootstrap (Opitz, 1999) Trénovací vzory 1 2 3 4 5 6 7 8 vzorek 1 2 7 8 3 7 6 3 1 vzorek 2 7 8 5 6 4 2 7 1 vzorek M 4 5 1 4 6 4 3 8

Bagging (2) LS LS 1 LS 2 LS T x ŷ 1 (x) ŷ 2 (x) ŷ T (x) Pro regresi: ŷ(x) = 1/k * (ŷ 1 (x)+ŷ 2 (x)+ +ŷ T (x)) Pro klasifikaci: ŷ(x) = majoritní třída z {ŷ 1 (x),,ŷ T (x)}

Bagging (Bootstrap agregating) Výběrem s opakováním utvořte M trénovacích souborů o n vzorech (místo jednoho původního souboru o n vzorech). Postavte model pro každý trénovací soubor. Zkombinujte modely. Bootstrap samples! výběr s opakováním vzorek 1 trénovací algoritmus Model 1 průměrování nebo hlasování Trénovací data vzorek 2 trénovací algoritmus Model 2 Ensemble model výstup... vzorek M trénovací algoritmus Model M vynálezce: Breiman (1996)

Bagging př. rozhodovací stromy Obvykle bagging podstatně sníží varianci a zachová zaujetí modelů. Podívejme se na příklad s rozhodovacími stromy: Metoda E Bias Variance 3 Test regr. Tree 14.8 11.1 3.7 Bagged (T=25) 11.7 10.7 1.0 Full regr. Tree 10.2 3.5 6.7 Bagged (T=25) 5.3 3.8 1.5 V tomto případě jsou pro učení rozhodovacích stromů použity všechny vstupní atributy a diverzita je způsobena proměnnou učicí množinou

Náhodné (rozhodovací) lesy random forests K baggingu se ještě přidá to, že náhodně vybíráme podmnožinu vstupních atributů Tedy: Postav rozhodovací strom z bootstrap vzorku Najdi best split mezi náhodnou podmnožinou k atributů, ne mezi všemi jako normálně (= bagging, když k je rovno počtu attributů) Odhadnete vliv k? Menší k redukuje varianci a zvyšuje bias

Boosting Iterativní procedura adaptivně měnící rozložení učicích dat zvýrazňujíce špatně klasifikované vzory Používá se zejména ke kombinaci slabých modelů (weak learners), které mají velké zaujetí Výrazně redukuje bias náchylnost k přeučení

Boosting (2) LS LS 1 LS 2 LS T x ŷ 1 (x) ŷ 2 (x) ŷ T (x) Pro regresi: ŷ(x) = β 1 *ŷ 1 (x)+ β 2 *ŷ 2 (x)+ + β T *ŷ T (x)) Pro klasifikaci: ŷ(x) = majorita tříd z {ŷ 1 (x),,ŷ T (x)} s použitím vah {β 1,β 2,,β T }

Boosting (3) Na počátku mají všechny vzory stejnou váhu Po naučení modelu zvýšíme váhu špatně klasifikovaným vzorům a snížíme ji dobře klasifikovaným Příklad: vzor 4 je špatně klasifikovatelný Postupně se zvyšuje jeho váha a tedy i pravděpodobnost zařazení do učicí množiny Original Data 1 2 3 4 5 6 7 8 9 10 Boosting (Round 1) 7 3 2 8 7 9 4 10 6 3 Boosting (Round 2) 5 4 9 4 2 5 1 7 4 2 Boosting (Round 3) 4 4 8 10 4 5 4 6 3 4

Algoritmus AdaBoost (1) Klasifikátory: C 1, C 2,, C T Jejich chyby: ε i = 1 N w jδ N j= 1 i j ) ( C ( x y ) Důležitost klasifikátoru: j váha vzoru (chyby na zmnožených vzorech bolí více!) β i = 1 2 1 ε i ln ε i

Algoritmus AdaBoost (2) Update vah: w ( j+ 1) i kde Z = j ( j) β j w exp if ( ) i C j xi = β j Z j exp if C j ( xi ) je normalizační konstanta y y i i Finální klasifikace: C *( x) = arg max β δ y T j= 1 j ( C ( x) = y) j

Příklad AdaBoost Počáteční inicializace vah Data vybraná do učicí množiny Špatně klasifikováno B1, váhy rostou.

Příklad AdaBoost

Při inicializaci jsou váhy vzorů stejné, puntíky mají stejnou velikost. Vzory se mají klasifikovat do modré a červené třídy. Po 1. iteraci AdaBoostu rostou váhy špatně klasifikovaných vzorů na pomezí tříd 3. iterace Po naučení 20 klasifikátorů jsou váhy vzorů mimo hranici tříd téměř nulové (nejsou vybírány do trénovací množiny) 20 iterace fromelder, John. From Trees to Forests and Rule Sets -A Unified Overview of Ensemble Methods. 2007.

Stacking Používá meta model pro kombinaci výstupů ensemble modelů (oproti jednoduchému průměrování, nebo hlasování) Výstupy ensemble modelů jsou použity jako trénovací data pro meta model Ensemble modely jsou většinou naučeny různými algoritmy Teoretická analýza stackingu je obtížná, jedná se o black magic Slide from Ensembles of Classifiers by Evgueni Smirnov

Stacking BC 1 BC 2 0 1 instance 1 BC n 1 meta instances instance 1 BC 1 BC 2 BC n 0 1 1 Class 1 Slide from Ensembles of Classifiers by Evgueni Smirnov

Stacking BC 1 BC 2 1 0 instance 2 BC n 0 meta instances instance 1 BC 1 BC 2 BC n 0 1 1 Class instance 2 1 0 0 0 1 Slide from Ensembles of Classifiers by Evgueni Smirnov

Stacking Meta Classifier meta instances BC 1 BC 2 BC n instance 1 0 1 1 Class instance 2 1 0 0 0 1 Slide from Ensembles of Classifiers by Evgueni Smirnov

Stacking BC 1 0 1 instance BC 2 1 Meta Classifier BC n 1 meta instance instance BC 1 BC 2 BC n 0 1 1 Slide from Ensembles of Classifiers by Evgueni Smirnov

Argumenty proti kombinování modelů? Okamova břitva v jednoduchosti je síla Je lepší mít jednoduchý optimální model, než kombinaci mnoha modelů ale jak najít optimální model? Domingos, P. Occam s two razors: the sharp and the blunt. KDD 1998. Kombinováním modelů se často kamufluje nedokonalost metod produkujících nedoučené nebo přeučené modely Kombinováním dostanu model s horšími výsledky na testovacích datech, než mají kombinované modely

Argumenty pro kombinování Většinou zlepším výsledky na testovacích datech Algoritmy jsou implicitně nastaveny, je třeba experimentovat s jejich konfigurací, aby produkované modely byly optimální konkrétních datech Dostanu povědomí o jistotě modelu když se pro jeden vstupní vektor jednotlivé modely hodně liší, zřejmě jsme mimo oblast trénovacích dat Netflix prize

Co přesně použil vítěz? Víceúrovňový Stacking pomocí MLP Gradient Boosting rozhodovacích stromů A samozřejmě výborné base-klasifikátory: KNN SVD RBM

Netflix prize a další aplikace Podrobný popis vítězných algoritmů http://www.netflixprize.com/assets/grandprize 2009_BPC_BellKor.pdf http://www.netflixprize.com/assets/grandprize 2009_BPC_BigChaos.pdf http://www.netflixprize.com/assets/grandprize 2009_BPC_PragmaticTheory.pdf Ještě něco zajímavého na ensemblech?

Příklady použití ensemble metod (klimatické modely) Skupinová předpověď (Ensemble forecast) Ensemble je soubor předpovědí, které kolektivně mapují pravděpodobné budoucí stavy, s ohledem na nejistotu provázející proces předpovědi. Předpovědi modelů s drobnými odlišnostmi v parametrech (v počátečních podmínkách) Interval vysoké pravděpodobnosti. Předpověď teploty Zdroj: prezentace J.P. Céron 2003 Aktuální čas Horizont předpovědi

Ensemble modely pro předpověď počasí vizualizace předpovědi zdroj: J.P. Céron

Ensemble modely a globální oteplování Knutti et al. (2002) Pouze jeden model ignoruje neodmyslitelné mezery v našich znalostech a limity předvídatelnosti vývoje Země. Potřebujeme celou skupinu (ensemble) modelů, které se liší složitostí, počátečními podmínkami a parametry. Dr. Thomas Stocker, Climate and Environmental Physics University of Bern, Switzerland www.climate.unibe.ch, MI-ADM Algoritmy 2003 data miningu

Otázky Jakou novou informaci získáme použitím skupiny modelů oproti použití pouze jednoho modelu? Může ensemble zpřesnit předpověď, pro jaké modely? Jaké jsou nevýhody ensemble předpovědi?

Další vylepšení Hierarchické kombinování modelů Meta-learning templates Šlechtění topologie ensemblu na konkrétních datech více v MI-MVI

Meta-learning Templates Submitted to KDD 2011 (Kordík, Černý)

The template can be executed

to produce a model