ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Podobné dokumenty
Rosenblattův perceptron

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Neuronové sítě Ladislav Horký Karel Břinda

3. Vícevrstvé dopředné sítě

Umělé neuronové sítě

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Kybernetika a umělá inteligence, cvičení 10/11

Vytěžování znalostí z dat

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Přednáška 13 Redukce dimenzionality

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

NEURONOVÉ SÍTĚ A EVOLUČNÍ ALGORITMY NEURAL NETWORKS AND EVOLUTIONARY ALGORITHMS

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

Trénování sítě pomocí učení s učitelem

Neuronové sítě v DPZ

Algoritmy a struktury neuropočítačů ASN - P11

Algoritmy a struktury neuropočítačů ASN P3

Pokročilé metody učení neuronových sítí. Tomáš Řehořek

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

NG C Implementace plně rekurentní

Rozdělování dat do trénovacích a testovacích množin

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Státnice odborné č. 20

Využití neuronové sítě pro identifikaci realného systému

Moderní systémy pro získávání znalostí z informací a dat

Klasifikace a rozpoznávání. Lineární klasifikátory

OPTIMALIZACE. (přehled metod)

Neuronové časové řady (ANN-TS)

Preceptron přednáška ze dne

PV021: Neuronové sítě. Tomáš Brázdil

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Neuronové sítě (11. přednáška)

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Algoritmy a struktury neuropočítačů ASN - P1

Algoritmy a struktury neuropočítačů ASN - P14. Neuropočítače

( + ) ( ) f x x f x. x bude zmenšovat nekonečně přesný. = derivace funkce f v bodě x. nazýváme ji derivací funkce f v bodě x. - náš základní zápis

ANALÝZA A KLASIFIKACE DAT

4EK213 LINEÁRNÍ MODELY

Úloha - rozpoznávání číslic

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

FAKULTA INFORMAČNÍCH TECHNOLOGIÍ

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Neuropočítače. podnět. vnímání (senzory)

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Emergence chování robotických agentů: neuroevoluce

7.1.3 Vzdálenost bodů

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

ANALÝZA A KLASIFIKACE DAT

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Jana Dannhoferová Ústav informatiky, PEF MZLU

Hammingův odhad. perfektní kódy. koule, objem koule perfektní kód. triviální, Hammingův, Golayův váhový polynom. výpočet. příklad

Numerické řešení diferenciálních rovnic

Jaroslav Tuma. 8. února 2010

Klasifikace předmětů a jevů

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Metody analýzy dat I. Míry a metriky - pokračování

Strojové učení se zaměřením na vliv vstupních dat

MODELOVÁNÍ BONITY OBCÍ POMOCÍ KOHONENOVÝCH SAMOORGANIZUJÍCÍCH SE MAP A LVQ NEURONOVÝCH SÍTÍ

KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ

Lineární klasifikátory

METODIKA ZPRACOVÁNÍ EKONOMICKÝCH ČASOVÝCH ŘAD S VYUŽITÍM SIMULÁTORŮ NEURONOVÝCH SÍTÍ

Usuzování za neurčitosti

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

IBM SPSS Neural Networks

FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

Aplikovaná numerická matematika - ANM

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Framework pro neuronovou sít Flexible Neural Tree Flexible Neural Tree Framework

Vytěžování znalostí z dat

Toolbox pro neuronové sítě pro prostředí Mathematica

Metody lineární optimalizace Simplexová metoda. Distribuční úlohy

Umělá inteligence a rozpoznávání

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

Zpracování biologických signálů umělými neuronovými sítěmi

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Čtvercové matice. Čtvercová matice je taková matice, jejíž počet řádků je roven počtu jejích sloupců

Inteligentní systémy a neuronové sítě

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

České vysoké učení technické v Praze Fakulta biomedicínského inženýrství

MODELOVÁNÍ VÝVOJE HRUBÉHO DOMÁCÍHO PRODUKTU POMOCÍ DOPŘEDNÝCH NEURONOVÝCH SÍTÍ

StatSoft Úvod do neuronových sítí

ANALÝZA A KLASIFIKACE DAT

úloh pro ODR jednokrokové metody

DRN: Kořeny funkce numericky

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Strojové učení Marta Vomlelová

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY

4EK213 LINEÁRNÍ MODELY

Statistická teorie učení

Numerické metody optimalizace - úvod

ANALÝZA A KLASIFIKACE DAT

Algoritmus pro hledání nejkratší cesty orientovaným grafem

Rozpoznávání objektů pomocí neuronových sítí

METODA PŮLENÍ INTERVALU (METODA BISEKCE) METODA PROSTÉ ITERACE NEWTONOVA METODA

Transkript:

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík,, CSc.

NEURONOVÉ SÍTĚ otázky a odpovědi

1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma váhovaných vstupů kladná či záporná?

JEDNOVRSTVÝ N,M PERCEPTRON Předpokládejme, že převodní charakteristiku i-tého neuronu zvolíme ve tvaru y i = f i (net i ) = sign(net i ), přičemž aktivační hodnota net i = j w ij.x j, kde x j je hodnota přicházející z j-tého aktivačního zdroje na vstup i-tého neuronu s vahou w ij.

1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma váhovaných vstupů kladná či záporná? ANO

2 AKD_predn4, slide 9: Je v tomto případě počet neuronů 3? Tedy počet tříd mínus jedna? AKD_predn4, slide 9: Kolik je vstupů v tomto případě? Jen jeden, na nějž se postupně přivádí všechna x, o, + a? A pak z tohoto vstupu vedou spojení ke všem neuronům? Nebo je vstupů tolik, kolik je trénovacích dat? Nebo je vstupů tolik, kolik je tříd? Nebo je to ještě úplně jinak?

JEDNOVRSTVÝ N,M PERCEPTRON y 1 y 2 y 3 x o + 1-1 -1 1 1-1 1 1 1-1 -1-1

2 AKD_predn4, slide 9: Je v tomto případě počet neuronů 3? Tedy počet tříd mínus jedna? Počet neuronů je opravdu 3 odpovídá počtu použitých lineárních hranic. Ovšem nikoliv počet tříd mínus jedna. Teoretický počet tříd je počet možných hodnot (stavů) funkce net umocněný počtem použitých neuronů, tj. 2 3.

3 AKD_predn4, slide 9: Je v tomto případě počet neuronů 3? Tedy počet tříd mínus jedna? AKD_predn4, slide 9: Kolik je vstupů v tomto případě? Jen jeden, na nějž se postupně přivádí všechna x, o, + a? A pak z tohoto vstupu vedou spojení ke všem neuronům? Nebo je vstupů tolik, kolik je trénovacích dat? Nebo je vstupů tolik, kolik je tříd? Nebo je to ještě úplně jinak?

JEDNOVRSTVÝ N,M PERCEPTRON y 1 y 2 y 3 x o + 1-1 -1 1 1-1 1 1 1-1 -1-1

JEDNOVRSTVÝ N,M PERCEPTRON N,M perceptron má N vstupů a M výstupů, tj. M separátně pracujících neuronů.

3 AKD_predn4, slide 9: Je v tomto případě počet neuronů 3? Tedy počet tříd mínus jedna? AKD_predn4, slide 9: Kolik je vstupů v tomto případě? Jen jeden, na nějž se postupně přivádí všechna x, o, + a? A pak z tohoto vstupu vedou spojení ke všem neuronům? Nebo je vstupů tolik, kolik je trénovacích dat? Nebo je vstupů tolik, kolik je tříd? Nebo je to ještě úplně jinak? Vstupů je vždycky tolik kolik příznakových proměnných, tj. v tomto případě x 1 a x 2, tedy 2 (slovy 2).

4 AKD_predn4, slide 9: Chápu správně, že když od 3 neuronů budu mít na výstupu hodnoty 1,1,1 klasifikační třídou budou x ; když 1. neuron bude mít na výstupu -1, druhý neuron 1 a třetí neuron 1 budou klasifikační třídou o? AKD_predn4, slide 9: Pro nový prvek, který budu chtít oklasifikovat, pak budu mít výstupy y 1, y 2 a y 3, které budou +1 nebo -1 a podle toho (s nahlédnutím do uvedené tabulky) určím, do jaké třídy bude patřit? A co kdyby nastala situace: y 1 = -1, y 2 = 1 a y 3 = -1? Nebo tato situace nastat nemůže?

JEDNOVRSTVÝ N,M PERCEPTRON y 1 y 2 y 3 x o + 1-1 -1 1 1-1 1 1 1-1 -1-1

4 AKD_predn4, slide 9: Chápu správně, že když od 3 neuronů budu mít na výstupu hodnoty 1,1,1 klasifikační třídou budou x ; když 1. neuron bude mít na výstupu -1, druhý neuron 1 a třetí neuron 1 budou klasifikační třídou o? AKD_predn4, slide 9: ANO Pro nový prvek, který budu chtít oklasifikovat, pak budu mít výstupy y 1, y 2 a y 3, které budou +1 nebo -1 a podle toho (s nahlédnutím do uvedené tabulky) určím, do jaké třídy bude patřit? A co kdyby nastala situace: y 1 = -1, y 2 = 1 a y 3 = -1? Nebo tato situace nastat nemůže?

5 AKD_predn4, slide 9: Chápu správně, že když od 3 neuronů budu mít na výstupu hodnoty 1,1,1 klasifikační třídou budou x ; když 1. neuron bude mít na výstupu -1, druhý neuron 1 a třetí neuron 1 budou klasifikační třídou o? AKD_predn4, slide 9: Pro nový prvek, který budu chtít oklasifikovat, pak budu mít výstupy y 1, y 2 a y 3, které budou +1 nebo -1 a podle toho (s nahlédnutím do uvedené tabulky) určím, do jaké třídy bude patřit? A co kdyby nastala situace: y 1 = -1, y 2 = 1 a y 3 = -1? Nebo tato situace nastat nemůže?

JEDNOVRSTVÝ N,M PERCEPTRON y 1 y 2 y 3 x o + 1-1 -1 1 1-1 1 1 1-1 -1-1

6 AKD_predn4, slide 21: U vícevrstvého perceptronu odpovídá N 3 počtu kategorií. Na výstupu tedy bude jeden neuron z N 3 jedničkový a ostatní nulové, aby nám síť zatřídila jeden vzorek do jedné třídy?

KOLIK POTŘEBUJEME V KAŽDÉ VRSTVĚ UZLŮ? HEURISTIKA N 1 dáno počtem potřebných lineárních hranic N 2 = 1, pokud je oblast definované třídy konvexní; > 1, pokud oblast není konvexní; v tom případě je N 2 rovno počtu konvexních oblastí (ve většině případů je N 2 N 1 ); N 3 počet tříd;

6 AKD_predn4, slide 21: U vícevrstvého perceptronu odpovídá N 3 počtu kategorií. Na výstupu tedy bude jeden neuron z N 3 jedničkový a ostatní nulové, aby nám síť zatřídila jeden vzorek do jedné třídy? V ideálním případě samozřejmě ano. Ovšem díky spojitosti převodních charakteristik (aktivačních funkcí) - nejčastěji sigmoida - mohou být výstupní hodnoty třeba 0,85; 0,03; 0,254;. Hodnota výstupu odpovídá míře určitosti s jakou můžeme vstupní obraz zařadit do dané kategorie.

7 AKD_predn5, slide 5, vztah III: V první přednášce o neuronových sítích jsme měli vztah: net i = Σ w ij * y j (suma přes všechna j), kde w ij je váha spojení z j-tého do i-tého neuronu. Proč je zde suma vah spojení z j-tého do i-tého neuronu krát výstup z i-tého neuronu a ne výstup z j-tého neuronu?

UČENÍ VÍCEVRSTVÉHO PERCEPTRONU ALGORITMUS ZPĚTNÉHO ŠÍŘENÍ CHYBY díky linearitě derivace w E ij E k wij net j w ij k Ek y i j Ek w ij yj net j net j w ij y,protože net j i w.y ij i

7 AKD_predn5, slide 5, vztah III: V první přednášce o neuronových sítích jsme měli vztah: net i = Σ w ij * y j (suma přes všechna j), kde w ij je váha spojení z j-tého do i-tého neuronu. Proč je zde suma vah spojení z j-tého do i-tého neuronu krát výstup z i-tého neuronu a ne výstup z j-tého neuronu? net i = Σ j w ij * y j net j = Σ i w ij * y i

8 AKD_predn5, slide 15: Bylo řečeno, že se nemění váhy, ale nastavení výstupů. Když se změní výstupy při vybavování (tedy vstupy pro další iteraci), váhy se opravdu nezmění? (Když teď máme úplně jiné vstupy, podle kterých počítáme váhy?)

8 AKD_predn5, slide 15: Bylo řečeno, že se nemění váhy, ale nastavení výstupů. Když se změní výstupy při vybavování (tedy vstupy pro další iteraci), váhy se opravdu nezmění? (Když teď máme úplně jiné vstupy, podle kterých počítáme váhy?)

HOPFIELDOVA SÍŤ VYBAVOVÁNÍ Nejprve jsou nastaveny počáteční stavy jednotlivých neuronů podle předloženého vzoru podle vztahu y i (0)=x i, i=1,2,,n a dále jsou tyto stavy iteračně aktualizovány podle vztahu n y(t )1 f wy(t), j j ij i i 1 (f je aktivační funkce). 2,1,..., n

HOPFIELDOVA SÍŤ VYBAVOVÁNÍ po každé iteraci jsou výstupy poopraveny a slouží jako vstupy do sítě. opakujeme tak dlouho, až se stavy (výstupy) všech neuronů během dvou po sobě následujících cyklů nezmění.

8 AKD_predn5, slide 15: Bylo řečeno, že se nemění váhy, ale nastavení výstupů. Když se změní výstupy při vybavování (tedy vstupy pro další iteraci), váhy se opravdu nezmění? (Když teď máme úplně jiné vstupy, podle kterých počítáme váhy?) Vstupy se nemění, pouze výstupy v předchozí iteraci. Proto se nemění váhy, ty nám charakterizují tvar optimalizační funkce, po které se výpočet pohybuje ve fázi vybavování.

9 AKD_predn5, slide 19: Chápu správně, že známe dopředu, že výsledek má být obrázek trojky? A pak se upravením výstupů snažíme trojce postupně přibližovat?

HOPFIELDOVA SÍŤ PŘÍKLAD Fáze vybavování (rekonstrukce)

HOPFIELDOVA SÍŤ PŘÍKLAD Učení a rekonstrukce osmi obrazů s následujícími vzory 120 neuronů (obrázky jsou 10 x 12 = 120 bodů) a tedy 120 2 = 14 400 vah je vhodné, aby vzory měly co největší Hammingovu vzdálenost

9 AKD_predn5, slide 19: Chápu správně, že známe dopředu, že výsledek má být obrázek trojky? A pak se upravením výstupů snažíme trojce postupně přibližovat? Tedy shrnuto: V učební fázi je síť natrénovaná na uvedených osm vzorových obrazů. Ve fázi vybavování se výstupy iteračně blíží tomu vzoru z naučených osmi, ke kterému měl vstupní obrázek nejblíže.

10 AKD_predn5, slide 21: Váhy určují umístění v prostoru. Co jsou jejich jednotlivé souřadnice?

KOHONENOVA SÍŤ (SAMOORGANIZUJÍCÍ SE MAPA SOM) STRUKTURA obsahuje jedinou vrstvu v tzv. Kohonenově (kompetiční) vrstvě; vstupy jsou plně propojeny s neurony neurony mají mezi sebou postranní vazby, které definují topologickou mřížku sítě nejčastěji čtvercová váhy neuronů lze vnímat jako souřadnice neuronu v prostoru;

10 AKD_predn5, slide 21: Váhy určují umístění v prostoru. Co jsou jejich jednotlivé souřadnice? TY VÁHY!

11 AKD_predn5, slide 23: Jaký by mohl být konkrétní příklad elementů předloženého vzoru?

11 AKD_predn5, slide 23: Jaký by mohl být konkrétní příklad elementů předloženého vzoru? Reyes-Aldasoro C. C.: Image Segmentation with Kohonen Neural Network Self-Organising Maps, 2000, citeseer.ifi.unizh.ch/460754.html

KOHONENOVA SÍŤ VYBAVOVÁNÍ nejdříve vypočítány vzdálenosti d j mezi předloženým vzorem a vahami všech neuronů v kompetiční vrstvě, např. podle vztahu (Kohonen) d (x w), 2 j m i 1 kde index j prochází přes všechny neurony kompetiční vrstvy, kterých je m, x i jsou elementy předloženého vzoru a w ij jsou váhy neuronů. Vybere se ten neuron j* s minimální vzdáleností od předloženého vzoru d j* i j výstup tohoto neuronu je aktivní, výstupy ostatních neuronů jsou neaktivní ij mind j

12 Jakou knihu o neuronových sítích byste mi doporučil? Fausett, L.V.: Fundamentals of Neural Networks: Architectures, Algorithms And Applications, Prentice Hall 1993, 461s. ISBN-10: 0133341860 Haykin, S.: Neural Networks: A Comprehensive Foundation (2nd Edition) (Hardcover), Prentice Hall 1998, 842s. ISBN-10: 0132733501 Bishop, C.M.: Neural Networks for Pattern Recognition (1st Edition). Oxford University Press, 1996, 504s. ISBN-10: 0198538642 Jiřina, M.: Neuronové sítě a jejich využití v biomedicínském inženýrství [Habilitační práce], ČVUT v Praze FBMI 2005, 162s. Mařík,V. a kol.: Umělá inteligence I. V., Academia