Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Podobné dokumenty
Lineární klasifikátory

Lineární diskriminační funkce. Perceptronový algoritmus.

Kybernetika a umělá inteligence, cvičení 10/11

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Klasifikace a rozpoznávání. Lineární klasifikátory

Strojové učení Marta Vomlelová

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Trénování sítě pomocí učení s učitelem

Support Vector Machines (jemný úvod)

Moderní systémy pro získávání znalostí z informací a dat

Úvod do optimalizace, metody hladké optimalizace

Umělé neuronové sítě

Strojové učení se zaměřením na vliv vstupních dat

Využití metod strojového učení v bioinformatice David Hoksza

Úloha - rozpoznávání číslic

UČENÍ BEZ UČITELE. Václav Hlaváč

Učící se klasifikátory obrazu v průmyslu

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Algoritmy a struktury neuropočítačů ASN P3

Přednáška 13 Redukce dimenzionality

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Neuronové sítě (11. přednáška)

Klasifikace předmětů a jevů

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

LDA, logistická regrese

ANALÝZA A KLASIFIKACE DAT

Matematika pro informatiky

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Rosenblattův perceptron

KLASIFIKACE DOKUMENTŮ PODLE TÉMATU

Popis zobrazení pomocí fuzzy logiky

INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ. Modernizace studijního programu Matematika na PřF Univerzity Palackého v Olomouci CZ.1.07/2.2.00/28.

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

3. Vícevrstvé dopředné sítě

ANALÝZA A KLASIFIKACE DAT

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

5. Umělé neuronové sítě. Neuronové sítě

Umělá inteligence a rozpoznávání

Úlohy k přednášce NMAG 101 a 120: Lineární algebra a geometrie 1 a 2,

Dnes budeme učit agenty, jak zlepšit svůj

Pokročilé neparametrické metody. Klára Kubošová

ZADÁNÍ ZKOUŠKOVÉ PÍSEMNÉ PRÁCE Z PŘEDMĚTU LINEÁRNÍ ALGEBRA PRO IT. Verze 1.1A

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Rozdělování dat do trénovacích a testovacích množin

NG C Implementace plně rekurentní

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Vytěžování znalostí z dat

F A,B = Vektory baze vyjádřete jako aritmetické vektory souřadnic vzhledem

Numerické metody a programování. Lekce 8

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Transformace obrazu Josef Pelikán KSVI MFF UK Praha

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Bakalářská matematika I

Václav Matoušek KIV. Umělá inteligence a rozpoznávání. Václav Matoušek / KIV

Odhad parametrů N(µ, σ 2 )

Numerické metody optimalizace - úvod

Preceptron přednáška ze dne

Využití strojového učení k identifikaci protein-ligand aktivních míst

Následující text je součástí učebních textů předmětu Bi0034 Analýza a klasifikace dat a je určen

Klasifikace a rozpoznávání. Umělé neuronové sítě a Support Vector Machines

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

6. ANALYTICKÁ GEOMETRIE

ANALÝZA A KLASIFIKACE DAT

OSA. maximalizace minimalizace 1/22

a počtem sloupců druhé matice. Spočítejme součin A.B. Označme matici A.B = M, pro její prvky platí:

Drsná matematika III 1. přednáška Funkce více proměnných: křivky, směrové derivace, diferenciál

Automatické vyhledávání informace a znalosti v elektronických textových datech

Globální matice konstrukce

Numerické metody a programování

0.1 Úvod do lineární algebry

Využití neuronové sítě pro identifikaci realného systému

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

DMA Přednáška Rekurentní rovnice. takovou, že po dosazení odpovídajících členů do dané rovnice dostáváme pro všechna n n 0 + m pravdivý výrok.

Whale detection Brainstorming session. Jiří Dutkevič Lenka Kovářová Milan Le

Klasifikace a rozpoznávání

Dnešní látka Variačně formulované okrajové úlohy zúplnění prostoru funkcí. Lineární zobrazení.

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést

Algoritmizace Dynamické programování. Jiří Vyskočil, Marko Genyg-Berezovskyj 2010

Vyhněte se katastrofám pomocí výpočetní matematiky

PREDIKCE POČTU UCHAZEČŮ O STUDIUM S VYUŽITÍM NEURONOVÝCH SÍTÍ

SPOLEHLIVOST KONSTRUKCÍ & TEORIE SPOLEHLIVOSTI část 5: Aproximační techniky

NALG 001 Lineární algebra a geometrie 1, zimní semestr MFF UK Doba řešení: 3 hodiny

8.3). S ohledem na jednoduchost a názornost je výhodné seznámit se s touto Základní pojmy a vztahy. Definice

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

1. Data mining. Strojové učení. Základní úlohy.

Algoritmy a struktury neuropočítačů ASN - P11

Rozpoznávání v obraze

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Hammingův odhad. perfektní kódy. koule, objem koule perfektní kód. triviální, Hammingův, Golayův váhový polynom. výpočet. příklad

Matematika I 12a Euklidovská geometrie

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Analytická geometrie v prostoru

Vlastní číslo, vektor

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Transkript:

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory. Springer Verlag, New York, NY, USA. 1995 metoda strojového učení (učení s učitelem) zavedena pro řešení úloh rozpoznání vzorů používá se pro klasifikaci, nově i pro regresi do 2 tříd (binární klasifikace) jedná se o lineární klasifikátor support vectors jsou nejbližší body k nadrovině

Princip: - nalezení nadroviny, která optimálně rozdělí trénovací data, - základem je statistické učení využívají transformace nelineárního prostoru s nižší dimenzí do lineárního prostoru s vyšší dimenzí Nástroj: jádrová funkce (kernel function) Reálná data nejsou obvykle lineárně separabilní, zvýšením dimenze prostoru lze lineární separability dosáhnout. Formální definice: SVM vytváří nadrovinu nebo množinu nadrovin v prostoru s vysokou nebo nekonečnou dimenzí

Dobrá separace se dosahuje pomocí nadroviny, od které mají datové body klasifikované do nějaké třídy největší vzdálenost - (na obě strany od nadroviny je co nejšírší pruh bez bodů). maximal margin pásmo necitlivosti, hraniční pásmo Obecně větší vzdálenost vede na menší chybu při generalizaci. Reálná data nejsou obvykle lineárně separabilní, zvýšením dimenze prostoru lze lineární separability dosáhnout. Jak najít optimální nadrovinu? kernel pomocí jádrové funkce jako skalární součin dvojic datových bodů Optimální nadrovina se nazývá maximum-maargin hyperplane

oddělovací hranice x 2 1 + x 2 2 1 jádrová (kernel) transformace převádí nelineárně separabilní data na lineárně separabilní

H1 neoddělí třídy H2 oddělí třídy, ale s malou vzdáleností od nadroviny H3 oddělí třídy s maximální vzdáleností od nadroviny margin (odstup) Obrázek převzat a upraven z http://en.wikipedia.org/wiki/support_vector_machine

optimální nadrovina Obrázek převzat z: http://dspace.upce.cz/bitstream/10195/39021/1/ diplomka_flegl.pdf 2 x 2 2 x 1 nejbližší body k nadrovině = podpůrné vektory jádrová funkce (kernel function) K 2 x x x x F x F x i j i j i j skalární součin

transformace se dá definovat pro různé typy objektů, nejen body v R n. Např. pro grafy, stromy, posloupnosti DNA... Podpůrné vektory jsou nejdůležitějšími body trénovací množiny. Při odstranění všech ostatních bodů se novým natrénováním získá tatáž rozdělující nadrovina. V testovací fázi klasifikujeme neznámé body, u nichž nevíme, do které třídy náležejí. Spočítáme sgn (w*x + b), výsledné znaménko určí, na které straně rozdělující nadroviny daný bod leží určení třídy.

Příklady nelineárních SVM: Polynom stupně, radiální bázová funkce, dvojvrstvá neuronová síť. Problém optimalizace pomocí podpůrných vektorů lze řešit analyticky jen při malém množství trénovacích dat nebo jsou-li data separovatelná nebo je předem známo, která data se stanou podpůrnými vektory. Support Vector Machines mají široké uplatnění (zvláště pro klasifikaci). Reálné aplikace: - oblast zpracování textu, - počítačové vidění (např. rozpoznávání obličejů, rozpoznávání ručně psaného textu) - bioinformatika (např. klasifikace proteinů)

Výhody: trénování vždy najde globální řešení neexistují žádná lokální minima, která by nebyla zároveň globálním minimem reprodukovatelné výsledky výsledky nezávislé na volbě konkrétního algoritmu výsledky nezávislé na volbě počátečního bodu malý počet parametrů modelu, které je třeba určit po výběru typu jádrové funkce Problémy a omezení: správná funkce SVM záleží na vhodné volbě jádrové funkce (z velké části) po stanovení jádrové funkce jen jeden parametr - chyba obtížné určování jádrové funkce u velmi rozsáhlých úloh (miliony podpůrných vektorů) je problém v rychlostí a s paměťovými nároky