Rosenblattův perceptron

Podobné dokumenty
Umělé neuronové sítě

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Neuronové sítě Ladislav Horký Karel Břinda

Vytěžování znalostí z dat

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Klasifikace a rozpoznávání. Lineární klasifikátory

3. Vícevrstvé dopředné sítě

Úloha - rozpoznávání číslic

Lineární diskriminační funkce. Perceptronový algoritmus.

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Neuronové sítě Učení bipolárního perceptronu

Lineární klasifikátory

Matematika B101MA1, B101MA2

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Trénování sítě pomocí učení s učitelem

Úvod do optimalizace, metody hladké optimalizace

1 0 0 u 22 u 23 l 31. l u11

Algoritmy a struktury neuropočítačů ASN - P1

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

Vektorový prostor. Př.1. R 2 ; R 3 ; R n Dvě operace v R n : u + v = (u 1 + v 1,...u n + v n ), V (E 3 )...množina vektorů v E 3,

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

Toolbox pro neuronové sítě pro prostředí Mathematica

Kapitola 11: Vektory a matice:

5. Umělé neuronové sítě. Neuronové sítě

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

Přednáška 13 Redukce dimenzionality

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Neuronové časové řady (ANN-TS)

Preceptron přednáška ze dne

PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti

Neuropočítače. podnět. vnímání (senzory)

Algoritmy a struktury neuropočítačů ASN - P11

Základy matematiky pro FEK

Hammingovy kódy. dekódování H.kódů. konstrukce. šifrování. Fanova rovina charakteristický vektor. princip generující a prověrková matice

ANALÝZA A KLASIFIKACE DAT

NG C Implementace plně rekurentní

LINEÁRNÍ MODELY. Zdeňka Veselá

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Lineární algebra Operace s vektory a maticemi

Klasifikace a rozpoznávání. Extrakce příznaků

Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika)

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Základy navrhování průmyslových experimentů DOE

4EK213 LINEÁRNÍ MODELY

7. přednáška Systémová analýza a modelování. Přiřazovací problém

Klasifikace předmětů a jevů

4EK213 LINEÁRNÍ MODELY

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

ANALÝZA A KLASIFIKACE DAT

Kapitola 11: Vektory a matice 1/19

IB112 Základy matematiky

Aproximace posuvů [ N ],[G] Pro každý prvek se musí nalézt vztahy

AVDAT Geometrie metody nejmenších čtverců

a počtem sloupců druhé matice. Spočítejme součin A.B. Označme matici A.B = M, pro její prvky platí:

Využití neuronové sítě pro identifikaci realného systému

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]

ZPRACOVÁNÍ DAT DÁLKOVÉHO PRŮZKUMU

VĚTY Z LINEÁRNÍ ALGEBRY

Numerické metody a programování. Lekce 4

Samoučící se neuronová síť - SOM, Kohonenovy mapy

2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2

Aplikovaná numerická matematika

ALGEBRA. Téma 4: Grupy, okruhy a pole

Státnice odborné č. 20

Úvodem Dříve les než stromy 3 Operace s maticemi

AVDAT Mnohorozměrné metody metody redukce dimenze

1 Neuronové sítě - jednotlivý neuron

Neuronové sítě výuka2

Kybernetika a umělá inteligence, cvičení 10/11

Modely teorie grafů, min.kostra, max.tok, CPM, MPM, PERT

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Uspořádanou n-tici reálných čísel nazveme aritmetický vektor (vektor), ā = (a 1, a 2,..., a n ). Čísla a 1, a 2,..., a n se nazývají složky vektoru

Deep learning v jazyku Python

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

0.1 Úvod do lineární algebry

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Numerické metody a programování

Samoopravné kódy. Katedra matematiky a Institut teoretické informatiky Západočeská univerzita

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Základní spádové metody

Strojové učení se zaměřením na vliv vstupních dat

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Algoritmy pro shlukování prostorových dat

Emergence chování robotických agentů: neuroevoluce

stránkách přednášejícího.

MENDELOVA UNIVERZITA V BRNĚ LDF MT MATEMATIKA VEKTORY, MATICE

MENDELOVA UNIVERZITA V BRNĚ LDF MT MATEMATIKA VEKTORY, MATICE

NEURONOVÉ SÍTĚ EVA VOLNÁ CZ.1.07/2.2.00/

TSO NEBO A INVARIANTNÍ ROZPOZNÁVACÍ SYSTÉMY

Necht L je lineární prostor nad R. Operaci : L L R nazýváme

Neuronové sítě (11. přednáška)

Univerzita Pardubice 8. licenční studium chemometrie

Transkript:

Perceptron

Přenosové funkce

Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného pole čidel na jednorozměrný vektor přenosových elementů Druhá vrstva detektory rysů detekce příznaků (démony) Třetí vrstva rozpoznávače vzorů Váhy na první a druhé vrstvě jsou pevné, váhy na třetí nastavujeme při učení (proto tuto vrstvu počítáme mezi jednovrstvé, i když jsou zde tři vrstvy)

Rosenblattův perceptron

Rosenblattův perceptron Vlastní procesorové elementy se liší podle vrstev (další obrázek) Přenosová charakteristika neuronu perceptronové vrstvy je následující: výstup je nulový, je-li vážený součet všech jeho vstupů nulový nebo záporný. V opačném případě je výstup roven jedné (Heavisideova aktivační funkce)

Rosenblattův perceptron základní prvky

Perceptron Rozdíl mezi McCulloch-Pittsovým perceptronem a perceptronem podle Rosenblatta lze vyjádřit takto: Rosenblatt = McCulloch-Pitts + učící algoritmus

Učící algoritmus perceptronu MP perceptron zjednodušený Rosenblattův (základem je vždy McCulloch-Pittsův perceptron)

Učící algoritmus perceptronu

Učící algoritmus perceptronu je chyba perceptronu (odchylka jeho skutečného binárního výstupu y od požadovaného d, s j je jeho vnitřní potenciál Symbol η značí učící krok (učící koeficient - nabývá hodnot <0,1)

Geometrická interpretace učení

Geometrická interpretace učení perceptron naučený pro klasifikaci

Lineárně separovatelné a neseparovatelné množiny (XOR funkce, kritika neuronových sítí 1969) Funkce OR lineárně separabilní Funkce XOR není lineárně separabilní, není možné řešit pomocí jednoduchého perceptronu kritika neuronových sítí Později bylo dokázáno, že libovolná transformace může být provedena neuronovou sítí s alespoň třemi vrstvami Kolmogorovův teorém

ADALINE (Adaptive Linear Neuron)

ADALINE (Adaptive Linear Neuron) Zatímco u klasického perceptronu je vstupem do učícího bloku dvouhodnotový výstup neuronu je u ADALINE vstupem vnitřní potenciál neuronu Učící algoritmus minimalizuje Euklidovu vzdálenost požadované odezvy sítě a vnitřního potenciálu neuronu, tedy střední kvadratickou odchylku (LMS-Least Mean Squares) Tomuto algoritmu se také říká Widrow-Hoffovo delta pravidlo (jde o gradientní metodu)

Hopfieldova síť Jednovrstvá síť, zpětnovazební (rekurzivní) a binární Neuronem Hopfieldovy sítě je klasický McCulloh-Pitsův perceptron Skládá se z tolika neuronů, kolik má vstupů (pokud např. učíme síť obrázky, odpovídá každý pixel jednomu neuronu Výstup každého neuronu se vede zpět na vstupy ostatních neuronů přes synaptické váhy w ij (tak vznikají zpětnovazebné smyčky) tím vzniká diagonálně symetrická matice vah (váhy na spojích z jednoho do druhého neuronu jsou stejné v obou směrech Práh je nulový Všechny signály jsou binární (nabývají hodnot 0,1 nebo 1,+1) Hopfieldova síť patří mezi asociativní paměti. Její odpovědí na předložený vzor je přímo nalezený vzor

Hopfieldova síť

Hopfieldova síť jiné znázornění (funkčně stejné s předchozím)

Hopfieldova síť Vstupy x 0,x 1,,x N-1 jsou vstupy sítě, µ 0, µ 1,, µ N-1 jsou stavy v jednotlivých časových krocích, které se v následujícím kroku stávají opět vstupy. Výstupy y 0,y 1, y N-1 jsou po téměř celou dobu funkce sítě neaktivní. To se změní až po dosažení stabilního stavu při vybavování, kdy se jejich hodnota nastaví na µ 0, µ 1,, µ N-1. Vybavování je iteračním procesem, a proto je smysluplným výstupem až stav neuronů po posledním časovém kroku

Hopfieldova síť učení Pro každý vzor vytvoříme dílčí matici dimenze NxN (N je počet vstupů). Tuto matici tvoří prvky, které vzniknou vynásobením i-tého vstupu s j-tým výstupem (je-li i=j, je prvek nulový). Výsledná čtvercová matice vah vznikne jako součet všech dílčích matic jednotlivých vzorů, kterých je M Používá se Hammingova metrika (součet absolutních hodnot rozdílu sobě odpovídajících vektorových souřadnic)

Hopfieldova síť vybavování

Hopfieldova síť příklad Příklad Hopfieldova síť s 120 neurony (obrazce 12x10 = 120 bodů) Trénování bude pomocí 120 2 =14400 vahami Bylo natrénováno 8 vzorů. Ty byly vybrány tak, aby mezi vzory byla velká Hammingova vzdálenost (jinak by si byly vzory podobné a docházelo k chybám při vybavování)

Hopfieldova síť příklad Vybavování trojka, která byla z 25% poškozena (náhodně bylo invertováno 30 pixelů). Potom takto poškozený obraz by přiložen na vstup jednotlivé fáze iterace jsou patrné z obrázku. Při vybavování hledá Hopfieldova síť ten vzor, který má nejmenší Hammingovu vzdálenost od vstupního obrazu