Podobné dokumenty

Obsah: Rozhodovací stromy. Úvod do umělé inteligence 11/12 1 / 44

Obsah: Rozhodovací stromy. Úvod do umělé inteligence 11/12 1 / 41

Vytěžování znalostí z dat

Neuronové sítě (11. přednáška)

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Neuronové sítě Ladislav Horký Karel Břinda

Umělé neuronové sítě

Pravděpodobně skoro správné. PAC učení 1

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

DATA MINING KLASIFIKACE DMINA LS 2009/2010

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Dnes budeme učit agenty, jak zlepšit svůj

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Neuronové sítě v DPZ

Trénování sítě pomocí učení s učitelem

Moderní systémy pro získávání znalostí z informací a dat

Úvod do optimalizace, metody hladké optimalizace

3. Vícevrstvé dopředné sítě

Rosenblattův perceptron

5. Umělé neuronové sítě. Neuronové sítě

Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Statistická teorie učení

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Kybernetika a umělá inteligence, cvičení 10/11

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

NG C Implementace plně rekurentní

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Úloha - rozpoznávání číslic

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Umělá inteligence II

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Vytěžování znalostí z dat

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

StatSoft Úvod do neuronových sítí

Algoritmy a struktury neuropočítačů ASN - P1

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

PV021: Neuronové sítě. Tomáš Brázdil

Emergence chování robotických agentů: neuroevoluce

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Učící se klasifikátory obrazu v průmyslu

UČENÍ BEZ UČITELE. Václav Hlaváč

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Regresní a korelační analýza

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

Využití metod strojového učení v bioinformatice David Hoksza

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Úvod do mobilní robotiky AIL028

Výpočetní teorie strojového učení a pravděpodobně skoro správné (PAC) učení. PAC učení 1

Hledání kořenů rovnic jedné reálné proměnné metoda půlení intervalů Michal Čihák 23. října 2012

Výpočetní teorie učení. PAC učení. VC dimenze.

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder

Rekurentní rovnice, strukturální indukce

Neuropočítače. podnět. vnímání (senzory)

Detekce interakčních sil v proudu vozidel

Využití neuronové sítě pro identifikaci realného systému

Regresní a korelační analýza

Rekurentní rovnice, strukturální indukce

Pravděpodobnost, náhoda, kostky

Popis zobrazení pomocí fuzzy logiky

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Strojové učení Marta Vomlelová

Normální (Gaussovo) rozdělení

Pravděpodobnost, náhoda, kostky

Rozdělování dat do trénovacích a testovacích množin

Využití strojového učení k identifikaci protein-ligand aktivních míst

Algoritmy a struktury neuropočítačů ASN - P11

PRAVDĚPODOBNOST A STATISTIKA

Datové struktury 2: Rozptylovací tabulky

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Znalosti budeme nejčastěji vyjadřovat v predikátové logice prvního řádu. Metody:

Evoluční algoritmy. Podmínka zastavení počet iterací kvalita nejlepšího jedince v populaci změna kvality nejlepšího jedince mezi iteracemi

Jednotlivé historické modely neuronových sítí

Ochutnávka strojového učení

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Modely vyhledávání informací 4 podle technologie. 1) Booleovský model. George Boole Aplikace booleovské logiky

Státnice odborné č. 20

Vytěžování znalostí z dat

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Expertní systémy. 1. Úvod k expertním systémům. Cíl kapitoly:

Otázky ke státní závěrečné zkoušce

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

Výroková a predikátová logika - II

Třídy složitosti P a NP, NP-úplnost

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

Úvod do zpracování signálů

u odpovědí typu A, B, C, D, E: Obsah: jako 0) CLP Constraint Logic Programming

Rozhodovací stromy a jejich konstrukce z dat

Algoritmy komprese dat

Transkript:

Úvod do umělé inteligence, rozhodovací stromy, neuronové sítě UČENÍ Obsah: E-mail: hales@fi.muni.cz http://nlp.fi.muni.cz/uui/ učení je klíčové pro neznámé prostředí (kde návrhář není vševědoucí) učení je také někdy vhodné jako metoda konstrukce systému vystavit agenta realitě místo přepisování reality do pevných pravidel učení agenta využití jeho vjemů z prostředí nejen pro vyvození další akce učení modifikuje rozhodovací systém agenta pro zlepšení jeho výkonnosti Úvod do umělé inteligence /2 /37 Úvod do umělé inteligence /2 2/37 UČÍCÍ SE GENT KOMPONENT UČENÍ Výkonnostní standard Kritika Senzory příklad automatického taxi: Výkonnostní komponenta obsahuje znalosti a postupy pro výběr akcí pro vlastní řízení auta návrh komponenty učení závisí na několika atributech: jaký typ výkonnostní komponenty je použit která funkční část výkonnostní komponenty má být učena zpětná vazba Komponenta učení změny znalosti Výkonnostní komponenta Prostředí Kritika sleduje reakce okolí na akce taxi. Např. při rychlém přejetí 3 podélných pruhů zazna- jak je tato funkční část reprezentována jaká zpětná vazba je k dispozici cíle učení Generátor problémù gent experimenty kční prvky mená a předá pohoršující reakce dalších řidičů Komponenta učení z hlášení Kritiky vyvodí nové pravidlo, že takové přejíždění je nevhodné, a modifikuje odpovídajícím způsobem příklady: výkonnostní komponenta funkční část reprezentace zpětná vazba lfa-beta prohledávání vyhodnocovací funkce vážená lineární funkce výhra/prohra Logický agent určení akce axiomy Result výsledné skóre Reflexní agent váhy preceptronu neuronová síť správná/špatná akce Výkonnostní komponentu Generátor problémů zjišťuje, které oblasti by mohly potřebovat vylepšení a navrhuje experi- učení s dohledem (supervised learning) bez dohledu (unsupervised learning) s dohledem učení funkce z příkladů vstupů a výstupů menty, jako je třeba brždění na různých typech bez dohledu učení vzorů na vstupu vzhledem k reakcím prostředí vozovky posílené (reinforcement learning) nejobecnější, agent se učí podle odměn/pokut Úvod do umělé inteligence /2 3/37 Úvod do umělé inteligence /2 4/37

METOD INDUKTIVNÍHO UČENÍ INDUKTIVNÍ UČENÍ zkonstruuj/uprav h, aby souhlasila s f na trénovacích příkladech známé taky jako věda nejjednodušší forma učení funkce z příkladů (agent je tabula rasa) f je cílová funkce h je konzistentní např. hledání křivky: souhlasí f f na všech příkladech f(x) příklad je dvojicex,f(x) např. O O, + úkol indukce: najdi hypotézu h takovou, žeh f pomocí sady trénovacích příkladů pravidlo Ockhamovy břitvy maximalizovat kombinaci konzistence a jednoduchosti (nejjednodušší ze správných je nejlepší) x Úvod do umělé inteligence /2 5/37 Úvod do umělé inteligence /2 6/37 METOD INDUKTIVNÍHO UČENÍ pokrač. TRIBUTOVÁ REPREZENTCE PŘÍKLDŮ hodně záleží na prostoru hypotéz, jsou na něj protichůdné požadavky: pokrýt co největší množství hledaných funkcí udržet nízkou výpočetní složitost hypotézy např. a) f(x) stejná sada 7 bodů x b) f(x) nejmenší konzistentní polynom polynom 6-tého stupně (7 parametrů) může být výhodnější použít nekonzistentní přibližnou lineární funkci přitom existuje konzistentní funkceax+by +csinx x příklady popsané výčtem hodnot atributů (libovolných hodnot) např. rozhodování, zda počkat na uvolnění stolu v restauraci: tributy Příklad lt Bar Pá/So Hlad Štam Cen Déšt Rez Typ ČekD počkat? X N N část. $$$ N mexická X 2 N N plno $ N N asijská 3 6 N X 3 N N N část. $ N N bufet X 4 N plno $ N N asijská 3 X 5 N N plno $$$ N mexická >6 N X 6 N N část. $$ pizzerie X 7 N N N nikdo $ N bufet N X 8 N N N část. $$ asijská X 9 N N plno $ N bufet >6 N X plno $$$ N pizzerie 3 N X N N N N nikdo $ N N asijská N X 2 plno $ N N bufet 3 6 Ohodnocení tvoří klasifikaci příkladů pozitivní () a negativní (N) Úvod do umělé inteligence /2 7/37 Úvod do umělé inteligence /2 8/37

ROZHODOVCÍ STROMY jedna z možných reprezentací hypotéz rozhodovací strom pro určení, jestli počkat na stůl: Štamgastů? nikdo část. plno VYJDŘOVCÍ SÍL ROZHODOVCÍCH STROMŮ rozhodovací stromy vyjádří libovolnou Booleovskou funkci vstupních atributů odpovídá výrokové logice s počkat?(s) ( P (s) P 2(s)... P ) n(s), kdep i(s) = ( ) (s) = V... m(s) = V m N OdhadČekání? pro libovolnou Booleovskou funkci řádek v pravdivostní tabulce = cesta ve stromu (od kořene k listu) >6 3 6 3 N lternativa? Hlad? Ne no Ne no B xor B F F F F T T T F T T T F Ne N B Ne no B no Ne no N Rezervace? Ne no Bar? Ne no N Pá/So? Ne no N lternativa? Ne no Déšť? Ne no N triviálně pro libovolnou trénovací sadu existuje konzistentní rozhodovací strom s jednou cestou k listům pro každý příklad ale takový strom pravděpodobně nebude generalizovat na nové příklady chceme najít co možná kompaktní rozhodovací strom Úvod do umělé inteligence /2 9/37 Úvod do umělé inteligence /2 /37 PROSTOR HYPOTÉZ. vezměme pouze Booleovské atributy, bez dalšího omezení Kolik existuje různých rozhodovacích stromů s n Booleovskými atributy? = počet všech Booleovských funkcí nad těmito atributy = počet různých pravdivostních tabulek s2 n řádky =2 2n např. pro 6 atributů existuje 8 446 744 73 79 55 66 různých rozhodovacích stromů 2. když se omezíme pouze na konjunktivní hypotézy (Hlad Déšt ) Kolik existuje takových čistě konjunktivních hypotéz? každý atribut může být v pozitivní nebo negativní formě nebo nepoužit 3 n různých konjunktivních hypotéz (pro 6 atributů = 729) prostor hypotéz s větší expresivitou zvyšuje šance, že najdeme přesné vyjádření cílové funkce LE zvyšuje i počet možných hypotéz, které jsou konzistentní s trénovací množinou můžeme získat nižší kvalitu předpovědí (generalizace) UČENÍ VE FORMĚ ROZHODOVCÍCH STROMŮ triviální konstrukce rozhodovacího stromu pro každý příklad v trénovací sadě přidej jednu cestu od kořene k listu na stejných příkladech jako v trénovací sadě bude fungovat přesně na nových příkladech se bude chovat náhodně negeneralizuje vzory z příkladů, pouze kopíruje pozorování heuristická konstrukce kompaktního stromu chceme najít nejmenší rozhodovací strom, který souhlasí s příklady vlastní nalezení nejmenšího stromu je ovšem příliš složité heuristikou najdeme alespoň dostatečně malý hlavní myšlenka vybíráme atributy pro test v co nejlepším pořadí Úvod do umělé inteligence /2 /37 Úvod do umělé inteligence /2 2/37

VÝBĚR TRIBUTU myšlenka dobrý atribut rozdělí příklady na podmnožiny, které jsou (nejlépe) všechny pozitivní nebo všechny negativní VÝBĚR TRIBUTU MÍR INFORMCE informace odpovídá na otázku čím méně dopředu vím o výsledku obsaženém v odpovědi tím více informace je v ní obsaženo měřítko: bit = odpověď na Booleovskou otázku s pravděpodobností odpovědi P(T) = 2,P(F) = 2 Štamgastů? nikdo část. plno Typ? mexická pizzerie asijská bufet pro pravděpodobnosti všech odpovědí P(v ),...,P(v n ) míra informace v odpovědi obsažená I ( P(v ),...,P(v n ) ) = n i= P(v i)log 2 P(v i ) tato míra se také nazývá entropie např. pro házení mincí: I( 2, 2 ) = 2 log 2 2 2 log 2 2 = bit Štamgastů? je lepší volba atributu dává lepší informaci o vlastní klasifikaci příkladů pro házení falešnou mincí, která dává na 99% vždy jednu stranu mince: I(, 99 ) = log 2 99 log 2 99 =.8 bitů Úvod do umělé inteligence /2 3/37 Úvod do umělé inteligence /2 4/37 POUŽITÍ MÍRY INFORMCE PRO VÝBĚR TRIBUTU LGORITMUS IDT UČENÍ FORMOU ROZHODOVCÍCH STROMŮ předpokládejme, že máme p pozitivních a n negativních příkladů I ( p p+n, n p+n ) bitů je potřeba pro klasifikaci nového příkladu např. prox,...,x 2 z volby čekání na stůl jep = n = 6, takže potřebujeme bit výběr atributu kolik informace nám dá test na hodnotu atributu? = rozdíl odhadu odpovědi před a po testu atributu atributrozdělí sadu příkladůe na podmnožinye i (nejlépe, že potřebuje méně informace) nechťe i máp i pozitivních an i negativních příkladů je potřebai ( p i p i+n i, n i p i+n i ) bitů pro klasifikaci nového příkladu p i+n i p i p i+n i, očekávaný počet bitů přes větve je Remainder() = i p+n I( výsledný zisk atributuje Gain() = I ( p p+n, n p+n ) Remainder() výběr atributu = nalezení atributu s nejvyšší hodnotougain() Gain(Štamgastů?).54 bitů Gain(Typ?) = bitů n i p i+n i ) % induce tree( +ttributes, +Examples, Tree) induce tree(, [], null ) :!. induce tree(, [example( Class, ) Examples], leaf( Class)) : \+ (member( example( ClassX, ), Examples), ClassX \== Class),!. % příklady stejné klasifikace induce tree( ttributes, Examples, tree( ttribute, SubTrees)) : choose attribute( ttributes, Examples, ttribute),!, del( ttribute, ttributes, Resttts), attribute( ttribute, Values), induce trees( ttribute, Values, Resttts, Examples, SubTrees). induce tree(, Examples, leaf( ExClasses)) : % žádný užitečný atribut, list s distribucí klasifikací findall ( Class, member( example( Class, ), Examples), ExClasses). % induce trees( +tt, +Values, +Resttts, +Examples, SubTrees): % najdi podstromy SubTrees pro podmnožiny příkladů Examples podle hodnot (Values) atributu tt induce trees(, [],,, [] ). % No attributes, no subtrees induce trees( tt, [Val Vals ], Resttts, Exs, [Val : Tree Trees]) : attval subset( tt = Val, Exs, ExampleSubset), induce tree( Resttts, ExampleSubset, Tree), induce trees( tt, Vals, Resttts, Exs, Trees). % attval subset( +ttribute = +Value, +Examples, Subset): % Subset je podmnožina příkladů z Examples, které splňují podmínku ttribute = Value attval subset( ttributevalue, Examples, ExampleSubset) : findall ( example( Class, Obj), (member( example( Class, Obj), Examples), satisfy( Obj, [ ttributevalue])), ExampleSubset). % satisfy( Object, Description) satisfy( Object, Conj) : \+ (member( tt = Val, Conj), member( tt = ValX, Object), ValX \== Val). Úvod do umělé inteligence /2 5/37 Úvod do umělé inteligence /2 6/37

LGORITMUS IDT UČENÍ FORMOU ROZHODOVCÍCH STROMŮ pokrač. % vybíráme atribut podle čistoty množin, na které rozdělí příklady, setof je setřídí podle Impurity choose attribute( tts, Examples, Besttt) : setof( Impurity/tt, (member( tt, tts), impurity(examples, tt, Impurity)), [MinImpurity/Besttt ]). impurity( Exs, tt, Imp) : attribute( tt, ttvals ), sumv(tt, ttvals, Exs, Rem), Imp is Rem. % sumv( +tt, +ttvals, +Exs, Rem) zbytková informace po testu na hodnoty atributu tt sumv(, [],, ). sumv(tt, [V Vs], Es, Rem) : setof(class, Xˆexample(Class,X), Classes), % množina Class, viz help ( setof ) sumc(tt, V, Classes, S), sumv(tt, Vs, Es, Rem), findall (, example(class, ), L), length(l, Nall ), % spočítáme Nall a Nv findall (, (example(, Vs), member(tt = V, Vs)), L), length(l, Nv), Pv is Nv / Nall, % P(v) Rem is Pv S + Rem. % sumc(+tt, +V, +Classes, S) vnitřní suma sumc(,, [], ). sumc(tt, V, [C Classes], S) : findall (, (example(, Vs), member(tt = V, Vs)), L), length(l, Nv), findall (, (example(c, Vs), member(tt = V, Vs)), L2), length(l2, Ncv), sumc(tt, V, Classes, S), ((Nv =,! ; Ncv = ), S is S,! ; % P(c v) Pcv is Ncv / Nv, log2(pcv, LogPcv), S is Pcv LogPcv + S). % log2(+x, Y) log2(x, Y) : Y is log(x) / log (2). Úvod do umělé inteligence /2 7/37 LGORITMUS IDT PŘÍKLD attribute( hlad, [ano, ne]). attribute( stam, [nikdo, cast, plno ]). attribute( cen, [ $, $$, $$$ ]).... example(pockat, [ alt =ano, bar=ne, paso=ne, hlad=ano, stam=cast, cen= $$$, dest=ne, rez=ano, typ=mexicka ]). example(necekat, [alt=ano, bar=ne, paso=ne, hlad=ano, stam=plno, cen= $, dest=ne, rez=ne, typ=asijska ]).... : induce tree(t),show(t). stam? = nikdo necekat = cast pockat = plno hlad? = ano cen? = $ paso? = ano pockat = ne necekat = $$$ necekat = ne necekat Úvod do umělé inteligence /2 8/37 IDT VÝSLEDNÝ ROZHODOVCÍ STROM rozhodovací strom naučený z 2-ti příkladů: Štamgastů? nikdo část. plno F T Hlad? no Ne Typ? F mexická pizzerie asijská bufet T F Ne F podstatně jednodušší než strom z tabulky příkladů Pá/So? T no T Úvod do umělé inteligence /2 9/37 jak můžeme zjistit, zdah f? používaná metodologie: HODNOCENÍ ÚSPĚŠNOSTI UČÍCÍHO LGORITMU. vezmeme velkou množinu příkladů 2. rozdělíme ji na 2 množiny trénovací a testovací 3. aplikujeme učící algoritmus na trénovací sadu, získáme hypotézuh 4. změříme procento příkladů v testovací sadě, které jsou správně klasifikované hypotézou h 5. opakujeme kroky 2 4 pro různé velikosti trénovacích sad a pro náhodně vybrané trénovací sady dopředu použít věty Teorie komputačního učení po naučení kontrolou na jiné trénovací sadě křivka učení závislost velikosti trénovací sady na úspěšnosti % správnosti u testovací sady.9.7.5 2 4 6 8 velikost trénovací sady Úvod do umělé inteligence /2 2/37

HODNOCENÍ ÚSPĚŠNOSTI UČÍCÍHO LGORITMU pokrač. tvar křivky učení závisí na je hledaná funkce realizovatelná nerealizovatelná % správnosti funkce může být nerealizovatelná kvůli chybějícím atributům omezenému prostoru hypotéz naopak nadbytečné expresivitě např. množství nerelevantních atributů realizovatelná nadbytečná nerealizovatelná INDUKTIVNÍ UČENÍ SHRNUTÍ učení je potřebné pro neznámé prostředí (a líné analytiky ) učící se agent výkonnostní komponenta a komponenta učení metoda učení závisí na typu výkonnostní komponenty, dostupné zpětné vazbě, typu a reprezentaci části, která se má učením zlepšit u učení s dohledem cíl je najít nejjednodušší hypotézu přibližně konzistentní s trénovacími příklady učení formou rozhodovacích stromů používá míru informace kvalita učení přesnost odhadu změřená na testovací sadě # příkladů Úvod do umělé inteligence /2 2/37 Úvod do umělé inteligence /2 22/37 NEURON POČÍTČOVÝ MODEL NEURONOVÉ SÍTĚ mozek neuronů > 2 typů, 4 synapsí, ms ms cyklus nosiče informace signály = výkyvy elektrických potenciálů (se šumem) neuron mozková buňka, která má za úkol sběr, zpracování a šíření signálů Nervová vlákna xon z jiné buňky 943 McCulloch & Pitts matematický model neuronu spojené do neuronové sítě mají schopnost tolerovat šum ve vstupu a učit se jednotky (units) v neuronové síti jsou propojeny vazbami (links) vazba z jednotkyj doipropaguje aktivacia j jednotkyj každá vazba má číselnou váhuw j,i (síla+znaménko) Dendrit Synapse Jádro xon, nervový výběžek funkce jednotky i:. spočítá váženou vstupů =in i 2. aplikuje aktivační funkci g 3. tím získá výstupa i a = a j Wj,i prahová váha W,i in i Σ a i = g(in i ) g a i Tělo buňky, soma Synapse a i = g(in i ) = g( j W j,i a j ) vstupní vazby vstupní funkce aktivační funkce výstup výstupní vazby Úvod do umělé inteligence /2 23/37 Úvod do umělé inteligence /2 24/37

KTIVČNÍ FUNKCE účel aktivační funkce = jednotka má být aktivní ( +) pro pozitivní příklady, jinak neaktivní aktivace musí být nelineární, jinak by celá síť byla lineární LOGICKÉ FUNKCE POMOCÍ NEURONOVÉ JEDNOTKY např. a) + g(in i ) b) + g(in i ) W =.5 W = W =.5 W = W =.5 W = W 2 = W 2 = ND OR NOT prahová funkce in i sigmoida /(+e x ) je derivovatelná důležité pro učení in i jednotka McCulloch & Pitts sama umí implementovat základní Booleovské funkce kombinacemi jednotek do sítě můžeme implementovat libovolnou Booleovskou funkci změny prahové váhyw,i nastavují nulovou pozicí nastavují práh aktivace Úvod do umělé inteligence /2 25/37 Úvod do umělé inteligence /2 26/37 STRUKTURY NEURONOVÝCH SÍTÍ PŘÍKLD SÍTĚ S PŘEDNÍM VSTUPEM síť 5-ti jednotek 2 vstupní jednotky, skrytá vrstva (2 jednotky), výstupní jednotka sítě s předním vstupem (feed-forward networks) necyklické implementují funkce nemají vnitřní paměť W,3 W,4 3 W 3,5 rekurentní sítě (recurrent networks) 5 cyklické vlastní výstup si berou opět na vstup složitější a schopnější 2 W 2,3 W 2,4 4 W 4,5 výstup má (zpožděný) vliv na aktivaci = paměť Hopfieldovy sítě symetrické obousměrné vazby; fungují jako asociativní paměť Boltzmannovy stroje pravděpodobnostní aktivační funkce síť s předním vstupem = parametrizovaná nelineární funkce vstupu a 5 = g(w 3,5 a 3 +W 4,5 a 4 ) = g ( W 3,5 g(w,3 a +W 2,3 a 2 )+W 4,5 g(w,4 a +W 2,4 a 2 ) ) Úvod do umělé inteligence /2 27/37 Úvod do umělé inteligence /2 28/37

perceptron JEDNOVRSTVÁ SÍŤ PERCEPTRON pro Booleovskou funkci výstupní jednotka pro složitější klasifikaci více výstupních jednotek VYJDŘOVCÍ SÍL PERCEPTRONU předpokládejme perceptron s g zvolenou jako prahová funkce ( ) může reprezentovat hodně Booleovských funkcí ND, OR, NOT, majoritní funkci,... j W jx j > nebo W x > reprezentuje lineární separátor (nadrovina) v prostoru vstupu: vstupní jednotky výstup perceptronu.2 4 2 výstupní x 2 W 4 4 2 j,i jednotky 2 4 x 2 I a) I and I 2 I 2 I b) I or I 2 I 2 I? c) I xor I 2 I 2 Úvod do umělé inteligence /2 29/37 Úvod do umělé inteligence /2 3/37 UČENÍ PERCEPTRONU UČENÍ PERCEPTRONU pokrač. výhoda perceptronu existuje jednoduchý učící algoritmus pro libovolnou lineárně separabilní funkci učení perceptronu = upravování vah tak, aby se snížila chyba na trénovací sadě kvadratická chyba E pro příklad se vstupem x a požadovaným (=správným) výstupem y je E = 2 Err2 2 (y h W(x)) 2, kdeh W (x) je (vypočítaný) výstup perceptronu váhy pro minimální chybu pak hledáme optimalizačním prohledáváním spojitého prostoru vah E W j = Err Err W j = Err W j ( y g( n j= W jx j ) ) = Err g (in) x j pravidlo pro úpravu váhyw j W j +α Err g (in) x j např.err = y h W (x) > výstuph W (x) je moc malý váhy se musí zvýšit pro pozitivní příklady a snížit pro negativní α... učící konstanta (learning rate) úpravu vah provádíme po každém příkladu opakovaně až do dosažení ukončovacího kritéria učící pravidlo pro perceptron konverguje ke správné funkci pro libovolnou lineárně separabilní množinu dat a) učení majoritní funkce % správných v testovací sadě.9.7.5 Perceptron Rozhodovací strom 2 3 4 5 6 7 8 9 velikost trénovací sady b) učení čekání na volný stůl v restauraci % správných v testovací sadě.9.7.5 Rozhodovací strom Perceptron 2 3 4 5 6 7 8 9 velikost trénovací sady Úvod do umělé inteligence /2 3/37 Úvod do umělé inteligence /2 32/37

vrstvy jsou obvykle úplně propojené VÍCEVRSTVÉ NEURONOVÉ SÍTĚ počet skrytých jednotek je obvykle volen experimentálně VYJDŘOVCÍ SÍL VÍCEVRSTVÝCH SÍTÍ s jednou skrytou vrstvou všechny spojité funkce se dvěma skrytými vrstvami všechny funkce těžko se ovšem pro konkrétní síť zjišťuje její prostor reprezentovatelných funkcí výstupní jednotky a i např. W j,i dvě opačné skryté jednotky vytvoří hřbet dva hřbety vytvoří homoli skryté jednotky vstupní jednotky a j W k,j a k h W (x, x 2 ).2 4 2 x 2 4 4 2 2 4 x 2 h W (x, x 2 ).2 4 2 x 2 4 4 2 2 4 x 2 Úvod do umělé inteligence /2 33/37 Úvod do umělé inteligence /2 34/37 UČENÍ VÍCEVRSTVÝCH SÍTÍ UČENÍ VÍCEVRSTVÝCH SÍTÍ pokrač. pravidla pro úpravu vah: výstupní vrstva stejně jako u perceptronu W j,i W j,i +α a j i kde i = Err i g (in i ) skryté vrstvy zpětné šíření (back-propagation) chyby z výstupní vrstvy W k,j W k,j +α a k j kde j = g (in j ) i W j,i i problémy učení: dosažení lokálního minima chyby příliš pomalá konvergence přílišné upnutí na příklady neschopnost generalizovat vícevrstvá síť se problém čekání na volný stůl v restauraci učí znatelně líp než perceptron % správných v testovací sadě.9.7 vícevrstvá síť.5 rozhodovací strom perceptron 2 3 4 5 6 7 8 9 velikost trénovací sady Úvod do umělé inteligence /2 35/37 Úvod do umělé inteligence /2 36/37

NEURONOVÉ SÍTĚ SHRNUTÍ většina mozků má velké množství neuronů; každý neuron lineární prahová jednotka (?) perceptrony (jednovrstvé sítě) mají nízkou vyjadřovací sílu vícevrstvé sítě jsou dostatečně silné; mohou být trénovány pomocí zpětného šíření chyby velké množství reálných aplikací rozpoznávání řeči řízení auta rozpoznávání ručně psaného písma... Úvod do umělé inteligence /2 37/37