Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Podobné dokumenty
Umělé neuronové sítě

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Rosenblattův perceptron

3. Vícevrstvé dopředné sítě

1 Projekce a projektory

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

Aplikovaná numerická matematika - ANM

Lineární klasifikátory

1 Linearní prostory nad komplexními čísly

Základy maticového počtu Matice, determinant, definitnost

Vlastní číslo, vektor

VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY

Učební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008

Základy matematiky pro FEK

Trénování sítě pomocí učení s učitelem

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Aplikovaná numerická matematika

P 1 = P 1 1 = P 1, P 1 2 =

Četba: Texty o lineární algebře (odkazy na webových stránkách přednášejícího).

PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti

Matice. Modifikace matic eliminační metodou. α A = α a 2,1, α a 2,2,..., α a 2,n α a m,1, α a m,2,..., α a m,n

Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda

Soustavy linea rnı ch rovnic

1 0 0 u 22 u 23 l 31. l u11

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

[1] Motivace. p = {t u ; t R}, A(p) = {A(t u ); t R} = {t A( u ); t R}

Četba: Texty o lineární algebře (odkazy na webových stránkách přednášejícího).

Lineární algebra : Skalární součin a ortogonalita

Zdrojem většiny příkladů je sbírka úloh 1. cvičení ( ) 2. cvičení ( )

IB112 Základy matematiky

Matematika I 12a Euklidovská geometrie

Úlohy nejmenších čtverců

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s

6.1 Vektorový prostor

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést

Lineární zobrazení. 1. A(x y) = A(x) A(y) (vlastnost aditivity) 2. A(α x) = α A(x) (vlastnost homogenity)

Lineární algebra : Metrická geometrie

0.1 Úvod do lineární algebry

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

0.1 Úvod do lineární algebry

Kybernetika a umělá inteligence, cvičení 10/11

Soustavy. Terminologie. Dva pohledy na soustavu lin. rovnic. Definice: Necht A = (a i,j ) R m,n je matice, b R m,1 je jednosloupcová.

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Vektorový prostor. Př.1. R 2 ; R 3 ; R n Dvě operace v R n : u + v = (u 1 + v 1,...u n + v n ), V (E 3 )...množina vektorů v E 3,

Četba: Texty o lineární algebře (odkazy na webových stránkách přednášejícího).

Numerická stabilita algoritmů

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

stránkách přednášejícího.

VĚTY Z LINEÁRNÍ ALGEBRY

Připomenutí co je to soustava lineárních rovnic

Čebyševovy aproximace

a vlastních vektorů Příklad: Stanovte taková čísla λ, pro která má homogenní soustava Av = λv nenulové (A λ i I) v = 0.

Základní spádové metody

Numerická matematika 1

Operace s maticemi. 19. února 2018

Nelineární optimalizace a numerické metody (MI NON)

5. Umělé neuronové sítě. Neuronové sítě

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Úvod do lineární algebry

[1] Determinant. det A = 0 pro singulární matici, det A 0 pro regulární matici

Co je obsahem numerických metod?

11. Skalární součin a ortogonalita p. 1/16

Matematika B101MA1, B101MA2

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:

Operace s maticemi

Úloha - rozpoznávání číslic

1 Determinanty a inverzní matice

Arnoldiho a Lanczosova metoda

Numerické metody a programování. Lekce 7

AVDAT Nelineární regresní model

vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých mocnin). Rozhodněte o definitnosti kvadratické formy κ(x).

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory

Neuronové sítě Ladislav Horký Karel Břinda

7. Lineární vektorové prostory

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Soustavy lineárních rovnic a determinanty

Hammingův odhad. perfektní kódy. koule, objem koule perfektní kód. triviální, Hammingův, Golayův váhový polynom. výpočet. příklad

Lineární algebra : Skalární součin a ortogonalita

Vlastní čísla a vlastní vektory

Necht L je lineární prostor nad R. Operaci : L L R nazýváme

[1] samoopravné kódy: terminologie, princip

Matematika pro informatiky

Interpolace, ortogonální polynomy, Gaussova kvadratura

6 Skalární součin. u v = (u 1 v 1 ) 2 +(u 2 v 2 ) 2 +(u 3 v 3 ) 2

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

12. cvičení z PSI prosince (Test střední hodnoty dvou normálních rozdělení se stejným neznámým rozptylem)

AVDAT Vektory a matice

Matice. Předpokládejme, že A = (a ij ) je matice typu m n: diagonálou jsou rovny nule.

MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT

Přednáška 13 Redukce dimenzionality

EUKLIDOVSKÉ PROSTORY

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Všechno, co jste kdy chtěli vědět o maticích, ale báli jste se zeptat

Numerické metody a programování. Lekce 4

SPOLEHLIVOST KONSTRUKCÍ & TEORIE SPOLEHLIVOSTI část 5: Aproximační techniky

Transkript:

Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný výstup pak lze přiřadit i zašuměným vzorům Typická funkce Rozpoznat předem naučené vstupní vzory i v případě, že jsou neúplné nebo mírně poškozené 1 / 44

Asociativní paměti Asociativní sítě (paměti) Základní typy asociativních sítí heteroasociativní Zobrazujeme N vstupních vzorů x 1,..., x N v n-rozměrném prostoru na N výstupních vzorů y 1,..., y N v m-rozměrném prostoru tak, že x i y i Jestliže x x i < ɛ, pak x y i autoasociativní - oprava poškozených vzorů sítě pro rozpoznávání vzorů - identifikace třídy vstupního vzoru 2 / 44

Asociativní paměti Asociativní sítě (paměti) Základní typy asociativních sítí heteroasociativní autoasociativní x i = y i pro i = 1,..., N oprava poškozených vzorů sítě pro rozpoznávání vzorů Lze je pokládat za specílní typ heteroasociativní paměti Každému vektoru x i je přiřazena třída i pro i = 1,..., N identifikace třídy vstupního vzoru 3 / 44

Asociativní paměti Struktura asociativní paměti Struktura asociativní paměti Dva základní typy architektury asociativních pamětí: asociativní sítě bez zpětné vazby asociativní sítě se zpětnou vazbou 4 / 44

Asociativní paměti Struktura asociativní paměti Struktura asociativní paměti bez zpětné vazby Asociativní pamět lze implementovat pomocí jedné vrstvy neuronů Parametry w ij... váha mezi vstupem i a neuronem j W tvaru n m... matice vah, n je počet vstupů, m je počet výstupů 5 / 44

Asociativní paměti Struktura asociativní paměti Struktura asociativní paměti bez zpětné vazby Asociativní pamět lze implementovat pomocí jedné vrstvy neuronů Výpočet vstupní vektor x = {x 1,..., x n } dává excitační vektor e = x.w Potom se pro každý neuron spočítá jeho výstup y i jako hodnota přenosové funkce f (e i ), i = 1,..., m Pro identitu dostáváme lineární asociátor a výstupem bude právě y = x.w 6 / 44

Asociativní paměti Struktura asociativní paměti Struktura asociativní paměti bez zpětné vazby Obecně X... matice vstupů tvaru N n (řádky odpovídají vstupním vektorům) Y... matice výstupů tvaru N m (řádky odpovídají výstupním vektorům) Cíl učení (pro přenosovou funkci identita) Najít takovou matici vah W, aby XW = Y (obecně f (XW ) = Y ) Pro autoasociativní sít : XW = X Pro n = m: W = X 1 Y... řešení soustavy lineárních rovnic 7 / 44

Asociativní paměti Struktura asociativní paměti Struktura asociativní sítě se zpětnou vazbou Nejjednodušší zpětná vazba: výstup sítě se používá opakovaně jako její nový vstup, dokud sít nezkonverguje do stabilního stavu ne všechny sítě zkonvergují po předložení nového vzoru do stabilního stavu nutná dodatečná omezení na architekturu sítě učení je rychlé, ale rozpoznávání je obtížnější 8 / 44

Asociativní paměti Struktura asociativní paměti Asociativní sítě se zpětnou vazbou Nejjednodušší asociativní sítě s přenosovou funkcí identita bez zpětné vazby... Lineární asociátory... XW = Y se zpětnou vazbou... Vlastní automaty... XW = X 9 / 44

Asociativní paměti Vlastní automaty Vlastní automaty (eigenvector automata) Lineární rekurentní asociativní sít Výstup sítě představuje její nový vstup: všechny neurony počítají svůj výstup současně sít dostává v každém kroku (t) na vstup vektor x t a dává nový výstup x t+1 Otázka Existuje pevný bod x takový, že x = x.w?... vektor x je vlastním vektorem matice W s vlastním číslem 1 sít se chová jako dynamický systém prvního řádu (každý nový stav je plně určen nejbližším předchůdcem) hledáme pevné body dynamického systému 10 / 44

Asociativní paměti Vlastní automaty Vlastní automaty (eigenvector automata) Matice vah W tvaru n n může mít až n lineárně nezávislých vlastních vektorů x i a vlastních čísel λ i. x i W = λ i x i pro i = 1,..., n pak W definuje tzv. vlastní automat Po předložení libovolného vstupního vzoru bude nalezen vlastní vektor s největším vlastním číslem (pokud existuje)... atraktor přibližuje se směr, ne velikost daná složka vektoru musí být nenulová 11 / 44

Asociativní paměti Vlastní automaty Vlastní automaty (eigenvector automata) Příklad 1 Matice W = [2 0; 0 1] má 2 vlastní vektory (1,0) a (0,1) s vlastními čísli 2 a 1 Po t iteracích počátečního vektoru (x 1, x 2 ), x 1 0 dostaneme (2 t x 1, x 2 )... konverguje (co se týká směru) k (1, 0) Příklad 2 Matice W = [0 1; 1 0] nekonverguje do stabilního stavu (rotace o 90%)... cykly délky 4. 12 / 44

Co je cílem učení? Použití asociativních sítí jako dynamických systémů, jejichž atraktory by odpovídaly těm vektorům, které chceme do paměti uložit Při návrhu sítě chceme rozmístit ve vstupním prostoru co možná nejvíce atraktorů. Každý atraktor by měl mít přesně danou a omezenou oblast vlivu (vlastní automaty oblast vlivu jedinného atraktoru zahrnovala téměř celý vstupní prostor) 13 / 44

Chceme co nejvíce atraktorů s přesně danou a omezenou oblast vlivu použijeme nelineární přenosovou funkci, např. skokovou: { 1 pro x 0, f (x) = sgn(x) = 1 pro x < 0, Biparitní kódování je vhodnější než binární (protože je větší pravděpodobnost vzájemné ortogonality vektorů) 14 / 44

(Donald Hebb 1949) Vstup Cíl Idea Neuronová sít s jednou vrstvou a m neurony a skokovou přenosovou funkcí. Nalézt odpovídající váhy pro zobrazení n rozměrného vstupního vektoru x na m rozměrný výstupní vektor y (obecně N vzorů) Dva neurony, které jsou současně aktivní, by měly mít,,vyšší stupeň vzájemné interakce než neurony, jejichž aktivita je nekorelovaná v takovém případě by měla být vzájemná interakce hodně malá nebo nulová 15 / 44

Adaptační pravidlo na vstupu je n rozměrný vektor x 1, na výstupu m rozměrný vektor y 1 Aktualizace váhy w ij ze vstupu i do neuronu j podle: kde w ij = w ij + w ij, w ij = αx i y j α... parametr učení W... váhová matice (na začátku učení nulová) adaptovaná váhová matice W je korelační maticí pro vektory x 1 a y 1 : W = [w ij ] n m = [αx 1 i y 1 j ] n m = α x 1T y 1 16 / 44

Matice W = [x 1 i y 1 j ] n m zobrazí nenulový vektor x 1 právě na vektor y 1 : Spočteme excitační vektor: x 1 W = (y 1 1 n xi 1 xi 1, y2 1 i=1 n n xi 1 xi 1,..., ym 1 xi 1 xi 1 ) = y 1 ( x 1 x 1 ) i=1 i=1 Pro x 1 0 platí ( x 1 x 1 ) > 0 a výstup sítě je: sgn( x 1 W ) = (y1 1,..., ym) 1 = y 1 Pro ( x 1 ) je výstup sítě: sgn( x 1 W ) = sgn( x 1 W ) = y 1 17 / 44

Obecně: na vstupu je N n rozměrných vektorů x 1,..., x N, na výstupu N m rozměrných vektorů y 1,..., y N Použijeme pro každou dvojici x l a y l Výsledná matice vah je W = W 1 +... + W N, kde W l = [xi ly j l] n m je korelační matice x l a y l Váhy se nastaví v jednom průchodu 18 / 44

Předložíme vzor x p. Excitační vektor: x p W = x p (W 1 +... + W N ) N = x p W p + x p W l l p = y p ( x p x p ) + N y l ( x l x p ) l p excitační vektor tedy odpovídá y p (vynásobenému kladnou konstantou) s perturbačním členem (crosstalk) N l p y p ( x l x p ) 19 / 44

Výstup sítě bude roven: N sgn( x p W ) = sgn y p ( x p x p ) + y l ( x l x p ) l p Protože ( x p x p ) je kladná konstanta: N sgn( x p W ) = sgn y p + y l ( x l x p ) ( x p x p ) l p 20 / 44

Kdy dá sít na výstupu požadovaný vektor y p? když je crosstalk nulový pokud jsou vstupní vzory navzájem ortogonální když je crosstalk,,menší než y p ( x p x p ) 21 / 44

Aby byl výstup sítě roven y p, musí platit N y p = sgn y p + y l ( x l x p ) ( x p x p ) To bude splněno, pokud bude absolutní hodnota všech složek perturbačního členu menší než 1. Pro biparitní vektory to znamená, že skalární součin ( x l x p ) musí být menší než druhá mocnina délky x p l p 22 / 44

Pokud jsou náhodně zvoleným biparitním vektorům přiřazeny (jiné) náhodně zvolené biparitní vektory, je pravděpodobnost, že budou navzájem ortogonální, poměrně vysoká (pokud jich ovšem nebylo zvoleno příliš mnoho) V takovém případě bude crosstalk malý a povede k volbě vhodných vah pro asociativní sít 23 / 44

- geometrická interpretace Pro jeden uložený vzor x l a příslušnou matici W l : vstupní vektor z bude zobrazen do lineárního podprostoru L l určeného vektorem x l pro autoasociativní sít : zw l = z x lt x l = c l x l, kde c l je konstanta obecně neortogonální projekce Celkem pro matici W = W 1 +... + W N bude vstupní vektor z zobrazen do lineárního podprostoru určeného vektory x 1,..., x N : zw = zw 1 + zw 2 +... + zw N = c 1 x 1 + c 2 x 2 +.. + c N x N 24 / 44

- analýza chování Sféra vlivu jednotlivých atraktorů (pevných bodů systému) Pro biparitní vzory se měří Hammingovou vzdáleností ( počet různých složek dvou vektorů). Index n/2 I = hp h, h=0 kde p h je procento vzorů s Hamm. vzd. h, které,,zkonvergovaly k danému atraktoru. 25 / 44

- analýza chování S rostoucím počtem ukládaných vzorů se,,sféry vlivu jednotlivých atraktorů zmenšují a hrozí vznik nepravých stabilních stavů Inverzní vzory k uloženým Velký crosstalk - pokud bude příliš velký, může být dříve uložený vzor i,,zapomenut Rekurentní sít (se zpětnou vazbou) Lepší konvergence oproti asociativní paměti bez zpětné vazby Větší,,sféry vlivu jednotlivých atraktorů větší problém s kapacitou sítě 26 / 44

- analýza chování Příklad - srovnání indexu pro sít s a bez zpětné vazby Odhad kapacity sítě m... počet vzorů, které lze uložit do autoasociativní paměti s maticí W tvaru n n m 0.18n... maximální kapacita sítě Pro korelované vzory může být problém i pro m < 0.18n 27 / 44

- analýza chování V reálných aplikacích jsou vzory téměř vždy korelované a crosstalk pak může v případě Hebbovského učení ovlivnit rozpoznávání x p W = y p ( x p x p ) + N l p y l ( x l x p ) Vzájemná korelace ukládaných vzorů vede ke snížení kapacity asociativní paměti (počtu vzorů, které lze uložit a rozpoznat) ukládané vzory pak nepokrývají rovnoměrně celý příznakový prostor, ale soustředí se do menší oblasti 28 / 44

Metoda pseudoinverzní matice Metoda pseudoinverzní matice je třeba hledat alternativní metody učení schopné minimalizovat perturbaci mezi ukládanými vzory použití pseudoinverzní matice namísto korelační 29 / 44

Metoda pseudoinverzní matice Metoda pseudoinverzní matice Definice Pseudoinverzní maticí k matici n m reálných čísel X je matice X + reálných čísel s následujícími vlastnostmi: 1 XX + X = X 2 X + XX + = X + 3 X + X a XX + jsou symetrické Pseudoinverzní matice vždy existuje a je jednoznačně určena. 30 / 44

Metoda pseudoinverzní matice Metoda pseudoinverzní matice Úloha Na vstupu je N n rozměrných vektorů x 1,..., x N... matice X tvaru N n Na výstupu je N m rozměrných vektorů y 1,..., y N... matice Y tvaru N m Hledáme takovou matici vah, že XW = Y (ve zjednodušeném případě, obecně ještě aplikace přenosové funkce... f (XW ) = Y ) 31 / 44

Metoda pseudoinverzní matice Metoda pseudoinverzní matice Hledáme matici W t.ž. XW = Y Nápad: W = X 1 Y Problém: k matici X nemusí existovat inverzní matice X 1 obecně m n vektory x 1,..., x N nemusí být navzájem lineárně nezávislé hledáme matici, která by minimalizovala XW Y 2... minimalizace pomocí W = X + Y 32 / 44

Metoda pseudoinverzní matice Metoda pseudoinverzní matice Věta Necht X je matice reálných čísel tvaru N n, Y je matice reálných čísel tvaru N m. Matice W = X + Y tvaru n m minimalizuje XW Y 2. Zároveň X + minimalizuje XX + I 2. pokud X 1 existuje, bude navíc XX + I 2 = 0, tj. X + = X 1. pokud X 1 neexistuje, bude X + její nejlepší možná aproximace 33 / 44

Metoda pseudoinverzní matice Metoda pseudoinverzní matice Jak spočítat pseudoinverzní matici? např. aproximace pomocí BP-sítí... BP-sít využita k nalezení vah asociativní sítě o... skutečný výstup y... požadovaný výstup 34 / 44

Metoda pseudoinverzní matice Metoda pseudoinverzní matice Výpočet pseudoinverzní matice pomocí BP-sítě Pro l-tý vstupní vektor se porovná výstup sítě s vektorem y l a spočítá se E l. Celková kvadratická odchylka E = N i=l E l pak odpovídá XW Y 2. Algoritmus zpětného šíření pak najde matici W, která minimalizuje XW Y 2. 35 / 44

Bidirektivní asociativní sít Bidirektivní asociativní sít (pamět ) BAM = Bidirectional Associative Memory synchronní rekurentní asociativní pamět s obousměrnými synapsemi. 36 / 44

Bidirektivní asociativní sít Bidirektivní asociativní sít (pamět ) BAM = Bidirectional Associative Memory synchronní rekurentní asociativní pamět s obousměrnými synapsemi. Skládá se ze dvou vrstev neuronů, které si mezi sebou rekurzivně posílají informace. Vstupní vrstva posílá výsledky svého výpočtu výstupní vrstvě prostřednictvím vah sítě. Výstupní vrstva vrací výsledky svých výpočtů zpět vstupní vrstvě prostřednictvím stejných vah. Otázka: Dosáhne sít stabilního stavu, kdy se po několika iteracích už nebude měnit informace posílaná sem a tam? 37 / 44

Bidirektivní asociativní sít Bidirektivní asociativní sít (pamět ) Popis modelu BAM Skoková přenosová funkce (sgn). Biparitní kódování hodnot. Váhová matice W je tvaru n m Výpočet BAM Sít zobrazí n rozměrný vstupní vektor x 0 na m rozměrný výstupní vektor y 0 Po prvním dopředném průchodu sítí dostaneme: y 0 = sgn( x 0 W ) Po prvním zpětném průchodu dostaneme: x 1 = sgn(w y 0T ) Po dalším dopředném průchodu: y 1 = sgn( x 1 W ) 38 / 44

Bidirektivní asociativní sít Bidirektivní asociativní sít (pamět ) Výpočet BAM Po N iteracích máme N + 1 dvojic vektorů x 0,..., x N a y 0,..., y N pro které platí: y i = sgn( x i W ) x i+1 = sgn(w y it ) Otázka: Nalezne systém po několika iteracích pevný bod ( x, y) tak, aby platilo: y = sgn( xw ) x = sgn(w y T ) 39 / 44

Bidirektivní asociativní sít Bidirektivní asociativní sít (pamět ) Výpočet váhové matice... pomocí Hebbovského učení pro jeden vzor ( x l, y l ): a zároveň W l = x lt y l y l = sgn( x l W l ) = sgn( x l x lt y l ) = sgn( x l 2 y l ) = y l x lt = sgn(w l y lt ) = sgn( x lt y l y lt ) = sgn( x lt y l 2 ) = x lt pro více vzorů x 1,..., x N : W = W 1 +... + W N 40 / 44

Bidirektivní asociativní sít Bidirektivní asociativní sít (pamět ) Výpočet váhové matice Lze použít nebo Metodu pseudoinverzní matice Vzory by měly být navzájem ortogonální ( menší crosstalk) BAM lze použít i jako autoasociativní sítě, protože matice vah jsou symetrické (X = XW a X T = WX T ) 41 / 44

Bidirektivní asociativní sít Asynchronní BAM Asynchronní BAM Každý neuron náhodně spočítá svou excitaci a Změní svůj stav na 1 nebo -1 nezávisle na ostatních (ale podle znaménka své excitace) Pravděpodobnost, že budou dva neurony současně měnit svůj stav, je nulová Předpoklad: stav neuronu se nemění, je-li celková excitace nulová 42 / 44

Bidirektivní asociativní sít Asynchronní BAM Asynchronní BAM Stabilní stav BAM = dvojice vektorů ( x, y), pro kterou platí: Věta y = sgn( xw ) x = sgn(w y T ) Bidirektivní asociativní pamět s libovolnou maticí vah W dosáhne stabilního stavu v konečném počtu iterací a to jak pomocí synchronní, tak také pomocí asynchronní aktualizace. libovolná reálná matice vah W má bidirektivní stabilní biparitní stavy 43 / 44

Bidirektivní asociativní sít Asynchronní BAM Asynchronní BAM Definice: Energetická funkce sítě BAM E( x, y) = 1 2 xw y T = 1/2 Náznak důkazu věty n i=1 j=1 n xw ij x i y j Lokální minima energetické funkce odpovídají stabilním stavům. Každá aktualizace stavu sítě vede ke snížení její celkové energie. Stavů je konečně mnoho výpočet skončí v konečném počtu kroků. 44 / 44