Vytěžování znalostí z dat

Podobné dokumenty
Vytěžování znalostí z dat

Neuronové sítě Ladislav Horký Karel Břinda

Vytěžování znalostí z dat

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Umělé neuronové sítě

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Vytěžování znalostí z dat

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Neuronové sítě (11. přednáška)

Neuronové sítě v DPZ

Vytěžování znalostí z dat

Algoritmy a struktury neuropočítačů ASN - P11

3. Vícevrstvé dopředné sítě

2. RBF neuronové sítě

Rosenblattův perceptron

Úvod do optimalizace, metody hladké optimalizace

Algoritmy a struktury neuropočítačů ASN - P1

5. Umělé neuronové sítě. Neuronové sítě

Vytěžování znalostí z dat

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Vytěžování znalostí z dat

Vytěžování znalostí z dat

NG C Implementace plně rekurentní

Trénování sítě pomocí učení s učitelem

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

Lineární diskriminační funkce. Perceptronový algoritmus.

Vytěžování znalostí z dat

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

PV021: Neuronové sítě. Tomáš Brázdil

Klasifikace a rozpoznávání. Lineární klasifikátory

Emergence chování robotických agentů: neuroevoluce

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Vytěžování znalostí z dat

Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

8-9. Pravděpodobnostní rozhodování a predikce. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

Vytěžování znalostí z dat

Neuropočítače. podnět. vnímání (senzory)

Klasifikace předmětů a jevů

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Vytěžování znalostí z dat

KONVOLUČNÍ NEURONOVÉ SÍTĚ PRO BEZPEČNOSTNÍ APLIKACE CONVOLUTIONAL NEURAL NETWORKS FOR SECURITY APPLICATIONS

StatSoft Úvod do neuronových sítí

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Využití neuronové sítě pro identifikaci realného systému

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

NEURONOVÉ SÍTĚ A EVOLUČNÍ ALGORITMY NEURAL NETWORKS AND EVOLUTIONARY ALGORITHMS

LDA, logistická regrese

Předzpracování dat. Pavel Kordík. Department of Computer Systems Faculty of Information Technology Czech Technical University in Prague

Využití metod strojového učení v bioinformatice David Hoksza

Strojové učení se zaměřením na vliv vstupních dat

Přednáška 13 Redukce dimenzionality

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Vytěžování znalostí z dat

Vysoka škola ekonomická v Praze Fakulta informatiky a statistiky. Rozpoznávání znaků z reálných scén pomocí neuronových sítí

1 Neuronové sítě - jednotlivý neuron

Jednotlivé historické modely neuronových sítí

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Obsah: Rozhodovací stromy. Úvod do umělé inteligence 11/12 1 / 44

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Vytěžování znalostí z dat

Vytěžování znalostí z dat

VYUŽITÍ NEURONOVÝCH SÍTÍ V DIAGNOSTICE

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Statistická teorie učení

Neuronové časové řady (ANN-TS)

Obsah: Rozhodovací stromy. Úvod do umělé inteligence 11/12 1 / 41

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Lineární klasifikátory

FIT ČVUT MI-LOM Lineární optimalizace a metody. Dualita. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Vytěžování znalostí z dat

K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder

Moderní systémy pro získávání znalostí z informací a dat

Úloha - rozpoznávání číslic

PROHLEDÁVÁNÍ GRAFŮ. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze

Zpracování biologických signálů umělými neuronovými sítěmi

FAKULTA INFORMAČNÍCH TECHNOLOGIÍ

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

NP-ÚPLNÉ PROBLÉMY. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze


Preceptron přednáška ze dne

Pokročilé metody učení neuronových sítí. Tomáš Řehořek

Pokročilé neparametrické metody. Klára Kubošová

Strojové učení Marta Vomlelová

Kybernetika a umělá inteligence, cvičení 10/11

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

1. Data mining. Strojové učení. Základní úlohy.

TGH10 - Maximální toky

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

IBM SPSS Neural Networks

Transkript:

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 1/26 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information Technology Czech Technical University in Prague Přednáška 8: Neuronové sítě BI-VZD, 09/2011 MI-POA Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 2/26 Co jsou neuronové sítě? (Umělá) neuronová síť (Artificialneuralnetwork -ANN) je výpočetní model založený na propojení velkého množství jednoduchých výpočetních elementů. Původně inspirováno přírodou propojení neuronů v nervové soustavě živočichů.

Široké spektrum využití: Klasifikace Regrese Clustering Komprese Umělá inteligence Řízení K čemu slouží? Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 3/26

Příklad ANN ANN na rozpoznávání čísel: Vstup: binární obrázek 4x7 px Výstup: číslo na obrázku v kódu 1zN x 0 = 0 x 1 = 1 x 2 = 1 x 3 = 0 x 4 = 1 y 0 = 0 y 1 = 0 y 2 = 1 y 3 = 0 y 4 = 0 x 26 = 1 x 27 = 1 y 9 = 0 Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 4/26

Inspirace z biologie Lidský mozek obsahuje cca. 10 11 neuronů. Každý neuron je průměrně propojen s 10 4 dalšími neurony aktivace neuronu trvá cca. 10-3 s (oproti 10-10 s u křemíkových čipů) mozek ale dokáže provádět složité operace v krátkém čase (rozpoznání obličeje 10-1 s) nejdelší cesta signálu tak může být maximálně přes stovky neuronů toho je dosaženo masivně paralelníarchitekturou a tu se snaží napodobit ANN Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 5/26

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 6/26 Lidský neuron signál je v neuronu přijímán pomocí synapsí, na které jsou připojeny dendrity sousedních neuronů neuron přicházející signály sečte a pokud hodnota přesáhne určitou mez tak neuron vytvoří napětí, které se šíří axonem k dalším neuronům

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 7/26 Umělý neuron Základním prvkem je neuron (také Processingelement PE, Unit) Každý neuron se skládá z: několika vstupů x 0 x i ke každému vstupu přísluší hodnota váhy w 0 w i hodnota vychýlení s aktivační funkce F právě jeden výstup y (může být přiveden na vstup více dalších neuronů) x 0 w 0 x 1 w 1 F y x i w i s

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 8/26 Základní prvek Výstup neuronu je hodnota aktivační funkce Fz váženého součtu vstupů plus vychýlení = ( ( )+ ) x 0 w 0 x 1 w 1 F y x i w i Aktivačních funkcí se používá široká škála podle požadovaných vlastností s u některých sítí nemusí být pro všechny neurony stejná

Heavisideova funkce Nejpoužívanější aktivační funkce binární neuron je aktivní (y = 1) nebo neaktivní (y = 0) použití např. perceptron signum Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 9/26

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 10/26 Nejpoužívanější aktivační funkce Po částech lineární funkce Sigmoidní funkce omezená fce připomínající písmeno S tanh() nebo logistická funkce -F = použití např. MLP (vícevrstvý perceptron) tanh logistická fce

Gaussova funkce ( ) Nejpoužívanější aktivační funkce použití např. u sítí typu RBF Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 11/26

Struktura ANN Podle struktury dělíme sítě na: Dopředné(feed-forward, FF) neobsahují zpětnou vazbu signál se šíří pouze jedním směrem od vstupů k výstupům Rekurentní obsahují zpětnou vazbu Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 12/26

ANN jako graf Struktura neuronových sítí se často udává pomocí orientovaného grafu uzly představují neurony hrany představují propojení výstupu neuronu se vstupem jiného neuronu většinou se kreslí jako několik vrstev neuronů se stejnými vlastnostmi u dopředných sítí se většinou nekreslí orientace hran předpokládají se vstupy vlevo výstupy vpravo vstupní vrstva skrytá vrstva výstupní vrstva Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 13/26

Vrstvy ANN Úkolem vstupní vrstvy je pouze propagovat vstupy neuronové sítě do dalších vrstev počet neuronů ve vstupní vrstvě je dán počtem atributů trénovací množiny Výstupní vrstva #neuronů = #výstupů modelu Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 14/26

Módy ANN Neuronové sítě pracují ve dvou módech: učící nastavování hodnot vah a vychýlení (případně i struktury) vybavovací naučená síť pro nové instance předpovídá výstupní hodnoty Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 15/26

Učení učení může být buď s učitelem nebo bez učitele (supervised/unsupervised) neuronové síti jsou představovány prvky z trénovací množiny a neuronová síť podle nich nastavuje hodnoty vah a vychýlení (případně i strukturu) Každá instance trénovací množiny je většinou při učení použita vícekrát Použití všech instancí z trénovací množiny právě jednou se říká epocha Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 16/26

ANN -Perceptron Frank Rosenblatt, 1957 jednovrstvá neuronová síť + učící algoritmus aktivační funkce je Heavisideova fce. x 0 w 0 x 1 w 1 wi F y x i s Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 17/26

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 18/26 Perceptron = 1, ( 0 0, 0 lineární kombinace vstupů rozhodovací hranice je nadrovina(přímka pro 2 vstupy)

Perceptron-učení 1. inicializuj váhy w 0 w n a vychýlení s na 0 nebo malé náhodné hodnoty 2. pro instanci j z trénovací množiny: spočítej výstup neuronu y= ( )+ pokud je instance špatně klasifikována, uprav váhy: +1 = α y ŷ x 3. opakuj 2. dokud chyba není dostatečně malá αje learningratea udává rychlost učení nízké hodnoty znamenají pomalejší konvergenci při vysoké hodnotě můžeme optimum vždy přeskočit a algoritmus nemusí konvergovat α můžeme postupně snižovat Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 19/26

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 20/26 Perceptron učící algoritmus perceptronufunguje pouze pro lineárně separovatelná data (= lze je bez chyby klasifikovat nadrovinou) pro lineárně neseparovatelná data algoritmus nekonverguje např. XOR: viz applet: http://lcn.epfl.ch/tutorial/english/perceptron/html/index.html

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 21/26 ANN -MLP MLP = Multi-layer perceptron(vícevrstvý perceptron) vícevrstvá dopředná neuronová síť počet vrstev 3, skrytých vrstev může být více vstupní vrstva aktivační funkce sigmoida: např logistická fce F = skrytá vrstva výstupní vrstva

MLP rozhodovací hranice je nelineární čím více neuronů ve skrytých vrstvách, tím složitější tvar může mít díky použití sigmoidnífunkce už výstup není pouze binární, ale v intervalu <0,1> pro klasifikaci to odpovídá míře příslušnosti do dané třídy kromě třídy, do které instance patří, také víme jak moc jsme si tím jisti Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 22/26

Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 23/26 MLP -XOR řešení úlohy XOR pomocí MLP:

MLP učení Backpropagation(zpětné šíření chyby) minimalizace chyby =, kde jjsou neurony výstupní vrstvy 2 fáze spočítání výstupu neuronů ve všech vrstvách zpětná propagace chyby úprava vah od výstupní vrstvy směrem ke vstupní Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 24/26

Backpropagation-pseudokód 1. Inicializuj váhy na malé náhodné hodnoty obvykle v intervalu(-0.3,0.3) 2. dokud není splněno kritérium pro zastavení pro všechna trénovací data (epocha) 1. Vezmi příklad [X,y] z trénovacích dat 1. Spočítej výstup out u pro každý neuron 2. Pro každý neuron vve výstupní vrstvě spočítej chybu = 1 3. Pro každý neuron sve skryté vrstvě spočítej chybu = 1, ) ý 4. pro každou vazbu z neuronu jdo kuprav váhu, =, +,, kde, = η, Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 25/26

perceptron: Applety na vyzkoušení http://lcn.epfl.ch/tutorial/english/perceptron/html/index.htm l http://lcn.epfl.ch/tutorial/english/apb/html/index.html MLP http://neuron.felk.cvut.cz/~kordikp/mlp/start.html Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 26/26