Manuál k programu ERANN. Ing. Adam Karaba



Podobné dokumenty
Neuronové časové řady (ANN-TS)

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

Metodické pokyny pro práci s modulem Řešitel v tabulkovém procesoru Excel

Využití neuronové sítě pro identifikaci realného systému

SOLVER UŽIVATELSKÁ PŘÍRUČKA. Kamil Šamaj, František Vižďa Univerzita obrany, Brno, 2008 Výzkumný záměr MO0 FVT

UNIVERZITA PARDUBICE. 4.4 Aproximace křivek a vyhlazování křivek

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1

REGRESNÍ ANALÝZA V PROSTŘEDÍ MATLAB

RNDr. Eva Janoušová doc. RNDr. Ladislav Dušek, Dr.

Simulace. Simulace dat. Parametry

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

Úvod do optimalizace, metody hladké optimalizace

CITLIVOSTNÍ ANALÝZA DYNAMICKÝCH SYSTÉMŮ I

20. května Abstrakt V následujícím dokumentu je popsán způsob jakým analyzovat problém. výstřelu zasáhnout bod na zemi v definované vzdálenosti.

MANUÁL VÝPOČTOVÉHO SYSTÉMU W2E (WASTE-TO-ENERGY)

Hledání kořenů rovnic jedné reálné proměnné metoda půlení intervalů Michal Čihák 23. října 2012

7. Rozdělení pravděpodobnosti ve statistice

Téma 9: Vícenásobná regrese

Statistika. Regresní a korelační analýza Úvod do problému. Roman Biskup

SEMESTRÁLNÍ PRÁCE. Leptání plasmou. Ing. Pavel Bouchalík

Modelování a simulace Lukáš Otte

Univerzita Pardubice Fakulta chemicko technologická Katedra analytické chemie Licenční studium Management systému jakosti

Metoda nejmenších čtverců Michal Čihák 26. listopadu 2012

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Metoda Monte Carlo a její aplikace v problematice oceňování technologií. Manuál k programu

Úloha 1. Napište matici pro případ lineárního regresního spline vyjádřeného přes useknuté

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

OPTIMALIZACE CHEMICKÝCH STUPŇOVÝCH PROCESŮ POMOCÍ MATLAB SYMBOLIC MATH TOOLBOXU. Vladimír Hanta

Algoritmy a struktury neuropočítačů ASN - P11

Stanovení nejistot při výpočtu kontaminace zasaženého území

Plánování experimentu

Zada ní 1. Semina rní pra ce z pr edme tu Matematický software (KI/MSW)

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014

Lineární klasifikátory

Rosenblattův perceptron

vzorek vzorek

FORTANNS. 22. února 2010

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností,

OSA. maximalizace minimalizace 1/22

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Obyčejné diferenciální rovnice počáteční úloha. KMA / NGM F. Ježek

Bodové a intervalové odhady parametrů v regresním modelu

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Analýza dat pomocí systému Weka, Rapid miner a Enterprise miner

Zpravodaj. Uživatelská příručka. Verze

( LEVEL 2 něco málo o matematickém popisu, tvorbě simulačního modelu a práci s ním. )

Nápověda k systému CCS Carnet Mini. Manuál k aplikaci pro evidenci knihy jízd

STANOVENÍ PROPUSTNOSTI OBALOVÝCH MATERIÁLŮ PRO VODNÍ PÁRU

Regresní analýza 1. Regresní analýza

Příprava dat v softwaru Statistica

Diplomová práce Prostředí pro programování pohybu manipulátorů

Základy navrhování průmyslových experimentů DOE

ití empirických modelů při i optimalizaci procesu mokré granulace léčivl ková SVK ÚOT

VYUŽITÍ MATLABU PRO VÝUKU NUMERICKÉ MATEMATIKY Josef Daněk Centrum aplikované matematiky, Západočeská univerzita v Plzni. Abstrakt

Automatizace je proces při němž je řídicí funkce člověka nahrazována činností

SEMESTRÁLNÍ PRÁCE X. Aproximace křivek Numerické vyhlazování

Využití faktorového plánování v oblasti chemických specialit

Umělé neuronové sítě

ODR metody Runge-Kutta

Kalibrace a limity její přesnosti

Semestrální projekt. Vyhodnocení přesnosti sebelokalizace VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ. Fakulta elektrotechniky a komunikačních technologií

11MAMY LS 2017/2018. Úvod do Matlabu. 21. února Skupina 01. reseni2.m a tak dále + M souborem zadané funkce z příkladu 3 + souborem skupina.

Kombinatorická minimalizace

Odhad stavu matematického modelu křižovatek

LINEÁRNÍ REGRESE. Lineární regresní model

Aplikace teoretických postupů pro ocenění rizika při upisování pojistných smluv v oblasti velkých rizik

Čas (s) Model časového průběhu sorpce vyplývá z 2. Fickova zákona a je popsán následující rovnicí

Měření dat Filtrace dat, Kalmanův filtr

Vytěžování znalostí z dat

Fyzikální laboratoř. Kamil Mudruňka. Gymnázium, Pardubice, Dašická /8

MATLAB PRO PODPORU VÝUKY KOMUNIKAČNÍCH SYSTÉMŮ

UNIVERZITA OBRANY Fakulta ekonomiky a managementu. Aplikace STAT1. Výsledek řešení projektu PRO HORR2011 a PRO GRAM

Tvorba nelineárních regresních

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

5. Umělé neuronové sítě. Neuronové sítě

Využití tabulkového procesoru MS Excel

Algoritmizace diskrétních. Ing. Michal Dorda, Ph.D.

1 Analytické metody durace a konvexita aktiva (dluhopisu) $)*

Zdokonalování gramotnosti v oblasti ICT. Kurz MS Excel kurz 6. Inovace a modernizace studijních oborů FSpS (IMPACT) CZ.1.07/2.2.00/28.

Regrese. 28. listopadu Pokud chceme daty proložit vhodnou regresní křivku, musíme obvykle splnit tři úkoly:

UNIVERZITA PARDUBICE

Stanovení manganu a míry přesnosti kalibrace ( Lineární kalibrace )

Vzorce. Suma. Tvorba vzorce napsáním. Tvorba vzorců průvodcem

Univerzitní centrum energeticky efektivních budov, České vysoké učení technické, Buštěhrad

Časové řady, typy trendových funkcí a odhady trendů

U Úvod do modelování a simulace systémů

Manuál k programu EMSoftware

Princip řešení soustavy rovnic

Přílohy. Příloha 1. Obr. P1.1 Zadání úlohy v MS Excel

Obr. P1.1 Zadání úlohy v MS Excel

Plánování experimentu

Odhad parametrů N(µ, σ 2 )

Rozvoj tepla v betonových konstrukcích

VYUŽITÍ METOD PŘÍMÉHO HLEDÁNÍ OPTIMA PŘI PREDIKTIVNÍM ŘÍZENÍ

Užití software Wolfram Alpha při výuce matematiky

Svolávací systém Uživatelský manuál

Metoda Monte Carlo, simulované žíhání

"Optimalizace krmných směsí"

OPTIMALIZACE A MULTIKRITERIÁLNÍ HODNOCENÍ FUNKČNÍ ZPŮSOBILOSTI POZEMNÍCH STAVEB D24FZS

Transkript:

Manuál k programu ERANN Ing. Adam Karaba

1 Obsah 1 Obsah... 2 2 Licence... 3 3 Úvod... 4 4 Implementovaný aparát... 5 4.1 Model neuronu... 5 4.2 Přechodové funkce... 6 4.2.1 Prosté předání hodnoty... 6 Sigmoidální funkce... 6 Hyperbolický tangens... 6 Radiální báze... 6 Signum... 6 4.3 Model sítě... 7 4.4 Proces učení... 8 4.4.1 Účelové funkce... 8 4.4.2 Optimalizované parametry... 8 4.4.3 Náhodné prohledávání... 8 4.4.4 Metoda největšího spádu... 8 4.4.5 Simulované žíhání... 9 5 Ovládání programu... 10 5.1 Základní parametry sítě... 10 5.2 Návrh struktury... 10 5.3 Zadávání dat a učení sítě... 11 5.4 Výpočty pomocí sítě... 11 5.5 Citlivostní analýza... 12 5.6 Parametrické studie... 12 6 Příklady práce s programem... 13 6.1 Viskozita plynů... 13 6.2 Rovnovážný extraktor... 15 6.3 Predikce časových řad... 18 6.4 Klasifikační problém... 19 7 Literatura... 20

2 Licence Program ERANN v1.0, jehož autorem je Adam Karaba podléhá licenci Creative Commons Uveďte autora-neužívejte dílo komerčně-nezasahujte do díla 3.0 Česká republika. Tento manuál je autorem, Adamem Karabou, uveden pod licencí Creative Commons Uveďte autora-neužívejte dílo komerčně-nezasahujte do díla 3.0 Česká republika. Podrobnosti o licenci kompatibilní s právním řádem ČR lze nalézt na http://creativecommons.org/licenses/by-nc-nd/3.0/cz/ a plný text licenčního ujednání na stránce http://creativecommons.org/licenses/by-nc-nd/3.0/cz/legalcode

3 Úvod Umělé neuronové sítě jsou mocným nástrojem k řešení mnoha problémů ať už se jedná o klasifikační problémy, regrese nebo matematické modelování. Program ERANN (Easy Regression by Artificial Neural Network) je určen k použití neuronových sítí k regresi i když jej lze použít i k řešení některých klasifikačních problémů. Umožňuje návrh struktury dopředné neuronové sítě libovolného typu, např. i zcela neznámých typů sítě jen pro testovací účely. Uživatel může nechat síť vygenerovat podle základních kriterií nebo síť může ručně postavit sám pomocí implementovaného grafického rozhraní. Vytvořenou síť je možno učit na předložené skupině dat a dále síť používat k výpočtům příp. parametrickým studiím, citlivostním analýzám apod. Profesionální využívání umělých neuronových sítí je samozřejmě možné s použitím výpočetních systémů typu MATLAB, STATISTICA, apod. Takový software je ale relativně drahý. Účelem programu ERANN je také zpřístupnění umělých neuronových sítí širší veřejnosti. Je proto koncipován převážně v duchu jednoduchosti pro většinu rutinních aplikací nikoliv pro speciální aplikace. Krom obecného použití programu k jeho účelu jej lze použít také k demonstračním a ilustrativním účelům, např. ke studijním nebo výukovým účelům (dodržujte však požadavek licence na nekomerční využívání). Tento materiál neposkytuje základní pojmový a poznatkový aparát v oblasti umělých neuronových sítí. Mohu však čtenáře odkázat na příslušnou literaturu.

4 Implementovaný aparát 4.1 Model neuronu Model neuronu, který byl implementován je std. modelem ilustrovaným na obrázku. Vstupy neuronu jsou váženě sečteny. K výsledku součtu je přičtena hodnota prahu neuronu a výsledek je přepočten aktivační funkcí neuronu. Hodnota aktivační funkce je považována za postsynaptický potenciál, tedy buď přenesena na vstupy neuronů v následujících vrstvách nebo je konečným výstupem neuronové sítě. f i w x i i + T Obrázek 1: Model neuronu Hodnoty prahu i jednotlivých vah bývají na počátku inicializovány nějakými počátečními odhady (např. náhodnými čísly) a jsou v průběhu procesu učení optimalizovány pro každý neuron zvlášť.

4.2 Přechodové funkce Software podporuje použití nejčastěji využívaných přechodových funkcí. 1 sigmoid hyp. tan. radial base 0.5 0-0.5-1 -10-5 0 5 10 Obrázek 2: Grafy obvyklých přechodových funkcí 4.2.1 Prosté předání hodnoty Tato přechodová funkce se může uplatnit především u vstupů do neuronové sítě. Takové neurony tedy realizují přímou distribuci vstupní hodnoty na požadované neurony v první skryté vrstvě. Sigmoidální funkce 1 f ( x) = 1 x + e Hyperbolický tangens f ( x) = tanh( x) Radiální báze f ( x) = e 2 x Signum f ( x) = sign( x)

4.3 Model sítě Software je omezen jen na dopředené neuronové sítě. Umožňuje sice libovolnou stavbu struktury sítě, ale žádná vazba nesmí směřovat zpět. S tímto jediným omezením lze zkonstruovat libovolné sítě. Neurony je třeba vždy seskupit do vrstev, což je jen formální omezení.

4.4 Proces učení 4.4.1 Účelové funkce Jak je při regresi obvyklé, byla zvolena klasická účelová funkce součet čtverců reziduálních odchylek v jejím minimu se nachází optimální nastavení sítě. 4.4.2 Optimalizované parametry Software byl implementován tak, aby umožňoval optimalizaci parametrů buď všech neuronů nebo jen zvolených. Za parametry lze zvolit váhy vstupů neuronu a jeho práh. 4.4.3 Náhodné prohledávání Metoda náhodného prohledávání je implementována jako náhodné prohledávání prostoru parametrů sítě. Hodnoty parametrů jsou náhodně vybírány a metodou pokusu a omylu je hledáno nejlepší řešení. Pokud daná množina parametrů dosáhne lepšího výsledku, je automaticky přijata a další prohledávání vychází z ní. Jednotlivé složky vektoru parametrů jsou navrhovány relativně v zadaném rozsahu. Lze stanovit minimální práh. Pokud parametr nabývá nulové (příp. velmi nízké hodnoty), je jako výchozí hodnota pro relativní posunutí hodnoty uvažován zadaný minimální práh. To umožňuje, aby parametry snadno přecházeli přes hranici (nulu) mezi kladnými a zápornými hodnotami. Metoda umožňuje zadat podíl parametrů, které jsou měněny v jednom kroku, resp. pravděpodobnost se kterou bude každý z nich měněn. Tato metoda je velmi robustní a velmi spolehlivá, její hlavní nevýhodou je veliká výpočetní náročnost. Optimalizační proces proto může trvat poměrně dlouho. 4.4.4 Metoda největšího spádu Software podporuje použití jednoduché gradientní metody. Parciální derivace účelové funkce podle jednotlivých parametrů sítě jsou vypočteny robustnější i když méně přesnou numerickou metodou kdy jsou jednotlivé derivace vypočteny z dvoubodové diferenční formule s postupným krácením vzdálenosti mezi body a s použitím Richardsonovy extrapolace ke kontrole chyby (absolutní i relativní) a dalšími úpravami. Počáteční vzdálenost mezi body je volena relativně s použitím pevně minimálního prahu. Pokud je výchozí vektor 0 parametrů p r r 0, a gradient účelové funkce v tomto bodě f ( p ), pak jsou generovány odhady nových parametrů podle formule r p i = r p 0 + f λ i r 0 ( p ) f r 0 ( p ) kde jsou první tři počáteční body λ i voleny programem a následné jsou voleny pomocí dílčí optimalizace a to tak, že jsou regresí nalezeny vhodné koeficienty a, b, c funkce kvadratické funkce 2 ( λ) = aλ + bλ c g +

r i tak, aby platilo g( ) f ( p ) λ i pomocí metody nejmenších čtverců. Takové koeficienty lze jednoduše nalézt přímým řešením podmínky metody nejmenších čtverců, která v daném případě představuje soustavu 3 lineárních rovnic. Pomocí této dílčí optimalizace je nalezeno r 0 optimální λ i, tedy optimum ve směru f ( p ). Pro nalezení optima je provedeno celkem max. 7 iterací. Nejlepší z navrhovaných řešení je porovnáno s dosud známým nejlepším, tj. poslední přijatý vektor parametrů p r 0 a pokud je takto nalezené řešení lepší, je přijato. Celý proces pokračuje znovu od vyčíslení gradientu účelové funkce. 4.4.5 Simulované žíhání Známé též pod pojmy simulované chladnutí, příp. Metropolisův algoritmus. Je taktéž stochastická metoda, podobně jako náhodné prohledávání. Tato metoda navrhuje řadu po sobě jdoucích řešení optimalizačního problému (vektorů parametrů). Hlavní rozdíl oproti metodě náhodného prohledávání je ten, že tato metoda s určitou pravděpodobností přijímá i horší řešení než bylo poslední známé řešení. Pravděpodobnost, že nahradíme poslední přijaté řešení 0 p r i jiným p r je dána Metropolisovým kriteriem: r 0 pro f p i r f p π = 1 ( ) ( ) e i r ( p ) f ( p 0 ) r f r T 0 pro f ( p i r ) < f ( p ) Tento algoritmus se opakuje pro každou teplotu T právě k max -krát. Výsledný stav se použije jako počáteční odhad pro teplotu následující, přičemž je nutné aby teplota v průběhu optimalizace klesala. Plán chladnutí je právě nejzajímavější oblastí této metody. Naneštěstí se ukazuje, že je ve většině případů nutné, aby tento plán přizpůsoboval člověk. Chladnutí lze naplánovat pomocí nastavené hodnoty kmax a dále multiplikátoru α. Po uplynutí k max iterací se provede snížení teploty rekurentním vzorcem T αt, kde se doporučuje udržovat multiplikátor v mezích 0,8 0,99. Logicky jsou totální meze dány samotnou myšlenkou 0 << α < 1. Parametr k max je taktéž typickýu pro danou optimalizaci, ale doporučuje se udržovat jej mezi hranicemi 10 3 a 10 6. Počáteční teplota simulovaného žíhání T max má zásadní vliv na efektivnost metody. Doporučuje se ji určit tak, aby byla v počátku řešení přijímána přibližně polovina náhodně vybraných vektorů.

5 Ovládání programu 5.1 Základní parametry sítě Na kartě General lze zvolit základní parametry sítě. Strukturu sítě lze měnit i později, ale jak bude dále uvedeno, některé z těchto parametrů již měnit nelze. Základním požadavkem je počet vstupů a výstupů sítě, počet skrytých vrstev. Tyto parametry nelze již při návrhu struktury změnit a je třeba je proto dobře rozvážit. Jedinou možností změny je vrátit se na kartu General a vytvořit nový návrh což ovšem způsobí ztrátu informací, které mezi tím mohly být dále zadány. Tato karta dále umožňuje specifikovat počet neuronů ve skrytých vrstvách. A dále zaškrtnutím možnosti Connect all to all at all layers bude již v rámci přípravy návrhu propojen každý neuron se všemi neurony následující vrstvy. Již na této kartě lze specifikovat přechodové funkce a parametry skupin neuronů (vstupů, skrytých neuronů a výstupů). Stisknutím tlačítka Create design base se provede vygenerování základního návrhu a uživatel může pokračovat v práci na kartě Structure design. 5.2 Návrh struktury Na kartě Structure design lze provést podrobný návrh struktury sítě. Přidání/odebrání neuronu do/z vrstvy Nástroje pro propojování neuronů samostatně i ve skupinách Změna přechodové funkce a parametrů Nástroje pro propojení každého neuronu se všemi v následující vrstvě pro celou sít a pro odstranění všech vazeb v síti Jednotlivé neurony jsou označeny zkratkou použité přechodové funkce Obrázek 3: Návrh struktury sítě na kartě Structure design Provede kontrolu struktury Obnoví zobrazení návrhu Vytvoří neuronovou sít podle návrhu

Nástroje umožňují efektivní propojení neuronů po vrstvách v celé síti, příp. propojovat jednotlivé neurony nebo jeden neuron s celou následující či předcházející vrstvou. Ať je spoj vytvořen kterýmkoliv směrem, síť je vždy považována za dopřednou. Lze přidávat neurony do vrstev a odebírat je, zde je však třeba upozornit, že tato akce se týká vždy posledního místa ve vrstvě. Vstupy a výstupy přidávat nelze. Další nástroje umožňují nastavení přechodové funkce nebo hodnot parametrů konkr. neuronu. Kontrola struktury sítě prověří zda jsou všechny neurony připojeny, zda jsou možné cesty od všech vstupů ke všem výstupům a zda každý výstup je dostupný z alespoň jednoho vstupu. Pokud některá z podmínek není splněna, je tato skutečnost ohlášena. Stiskem tlačítka Build now dojde k vytvoření sítě v paměti počítače. Uživatel může pokračovat na další kartě. Opětovným stiskem tohoto tlačítka dojde k novému vytvoření sítě a všechny předchozí změny v síti provedené dříve budou ztraceny. 5.3 Zadávání dat a učení sítě Množina dat k učení sítě musí být zadána na záložce Data. Data lze zadat ručně v režimu editace nebo je lze přenést např. z MS Excel pomocí schránky v režimu manipulace s bloky dat. V tomto režimu lze rovněž mazat či přemísťovat označené bloky dat. Zadaná data je třeba potvrdit stiskem tlačítka Retrieve data. Na kartě Optimization je možné provádět učení sítě. Zde se optimalizací myslí optimalizace vah a prahů neuronů tak, aby síť co nejlépe kopírovala chování dat předložených k učení. Lze použít obvyklou gradientní metodu nebo metodu náhodného prohledávání a nebo metodu simulovaného žíhání. Výsledky dosažené stochastickými metodami na neuronových sítí jsou poněkud odlišné od klasických algoritmů učení, ale pro některé účely využití jsou tyto výsledky velmi zajímavé. Na záložce parameters lze zvolit typ parametrů, které mají být optimalizovány. Karta Metod umožňuje nastavení podrobností optimalizační metody. Umožňuje omezit počet iterací nebo nechat proces optimalizace běžet nepřetržitě až do zastavení uživatelem. Lze zvolit jednu z jmenovaných metod. V případě náhodného prohledávání a simulovaného žíhání je zapotřebí stanovit střed a poloměr okolí aktuální hodnoty parametru, které bude prověřováno. Obě hodnoty jsou zadávány relativně. Aktuální hodnota parametru se v průběhu optimalizace postupně mění. Lze také stanovit minimální práh, tj. práh, který bude považován za hodnotu parametru pro účely optimalizace pokud jeho skutečná hodnota bude nižší, aby se zabránilo uváznutí parametru na nule. V případě metody simulovaného žíhání je navíc zapotřebí nastavit teplotní program. Teplotu lze řídit manuálně v průběhu optimalizace nebo ji nechat automaticky měnit. V tom případě je zapotřebí nastavit hodnoty maximální a minimální teploty, multiplikátor (alpha), který bude považován za faktor pro redukci teploty po dosažení maximálního počtu iterací (k_max). Napravo jsou průběžně předváděny výsledky optimalizace, je vynášena zadaná hodnota výstupu proti hodnotě spočtené pro dané kombinace vstupů neuronovou sítí při aktuálním nastavení. Tento diagram lze změnit do režimu zobrazení reziduí, příp. relativních reziduí (v %). 5.4 Výpočty pomocí sítě Na kartě Calculation lze provést výpočty s použitím optimalizované sítě. Stejně tak, jako při zadávání dat k učení i zde je možné použít k přenosu dat schránku nebo data vpisovat ručně (viz oddíl 5.3). Výpočet je spuštěn stiskem tlačítka Recalculate outputs by net.

5.5 Citlivostní analýza Na záložce Sensitivity podzáložka sensitive analysis lze rovést analýzu citlivosti účelové funkce na jednotlivé parametry sítě. Procedura spočte gradient funkce, zobrazí jeho absolutní hodnotu a dále parciální derivace účelové funkce podle jednotlivých parametrů. Tyto hodnoty jsou taktéž vyjádřeny relativně vzhledem k hodnotě účelové funkce a relativně vzhledem ke svému podílu na velikosti gradientu. 5.6 Parametrické studie Na záložce sensitivity, podzáložce parametric study lze provádět různé parametrické studie na síti, které byla optimalizována. Lze zvolit kterýkoliv vstup jako nezávisle proměnnou, procedura provede vyšetření chování funkce na zadaném intervalu (spočte zadaný počet bodů v tomto intervalu. Lze přidat i parametrickou proměnnou. Výsledky výpočtu jsou převedeny do tabulky, ze které je lze exportovat s použitím schránky. Dále je umožněno, zaškrtnutím příslušného checkboxu shlédnout graf právě provedené parametrické studie.

6 Příklady práce s programem 6.1 Viskozita plynů Tento příklad ukazuje použití regresních schopností neuronové funkce. V tabulce jsou ukázány dynamické viskozity methanu, ethanu, propanu a butanu v plynném stavu. Tabulka 1: Závislost viskozity nižších alkanů na teplotě za std. tlaku η, Pa s T, C Methan Ethan Propan Butan 200 1,63E-05 1,41E-05 1,27E-05 1,17E-05 260 1,78E-05 1,56E-05 1,42E-05 1,31E-05 320 1,93E-05 1,71E-05 1,56E-05 1,44E-05 380 2,07E-05 1,85E-05 1,70E-05 1,58E-05 440 2,21E-05 1,98E-05 1,84E-05 1,71E-05 500 2,34E-05 2,11E-05 1,97E-05 1,83E-05 Neuronové sítě generované programem jsou schopny pracovat jen v rozsahu výstupů 0-1, což ale není nijak na překážku, postačí hodnoty relativizovat v tomto rozsahu. Konkr. v tomto případě postačí honodty viskozity podělit maximem. Získáme tak bezrozměrnou veličinu - relativní viskozitu vztaženou k maximu, kterým je viskozita methanu při teplotě 500 C. Jako informaci o složení můžeme použít např. molekulovou hmotnost plynu, získáme tak následující tabulku dat pro učení sítě. Tabulka 2: Transformovaná množina dat T, C Mw, g/mol η r Vstup1 Vstup2 Výstup1 200 16,0428 6,97E-01 260 16,0428 7,61E-01 320 16,0428 8,25E-01 380 16,0428 8,85E-01 440 16,0428 9,44E-01 500 16,0428 1,00E+00 200 30,0696 6,03E-01 260 30,0696 6,67E-01 320 30,0696 7,31E-01 380 30,0696 7,91E-01 440 30,0696 8,46E-01 500 30,0696 9,02E-01 200 44,0965 5,43E-01 260 44,0965 6,07E-01 320 44,0965 6,67E-01 380 44,0965 7,26E-01 440 44,0965 7,86E-01 500 44,0965 8,42E-01 200 58,1234 5,00E-01 260 58,1234 5,60E-01 320 58,1234 6,15E-01 380 58,1234 6,75E-01 440 58,1234 7,31E-01 500 58,1234 7,82E-01

Pro tyto účely postačí síť se dvěma vstupy, jedním výstupem, dvěma skrytými vrstvami v nichž bude po třech neuronech. Za přechodovou funkci skrytých i výstupních neuronů byla zvolena radiální báze. Na vstupech bylo ponecháno prosté předání hodnoty sumy. Takto vytvořenou síť můžeme optimalizovat např. metodou simulovaného žíhání tak jak je přednastavena, nebo i s nižší počáteční teplotou. Optimalizaci můžeme dokončit poměrně krátkým počtem iterací metody náhodného prohledávání. Obrázek 4: Program při učení neuronové sítě, ukázka shody zadaných a spočtených hodnot Obrázek 5: Graf relativních reziduí (%) po dokončení učení neuronové sítě

Síť lze nyní využít k výpočtu hodnot viskozity na popsaném intervalu. Komentář: Již z podstaty problému se neuronové sítě obecně nehodí k extrapolaci (krom spec. případů časových řad). Při použití empirických modelů k extrapolaci totiž neexistuje žádný relevantní způsob jak alespoň přibližně odhadnout jaké chyby se model dopustí při použití mimo oblast popsanou daty k učení sítě. K extrapolaci se doporučuje používat modely mechanistické, resp. rigorózní. Jejich tvorba i řešení je však v mnoha oblastech stále předmětem výzkumu, k použití takových modelů bývá zapotřebí kontakt s expertem. 6.2 Rovnovážný extraktor Namísto velmi složitých rigorózních modelů lze k popisu rovnovážných nebo i reálných zařízení použít neuronové sítě. I v tomto případě však stále platí stejné upozornění, které bylo uvedeno v závěru odstavce 6.1! V tomto případě použijeme dopřednou neuronovou síť o 2 skrytých vrstvách (každá po 5-ti neuronech) s 3 vstupy a dvěma výstupy k popisu protiproudého extraktoru s pěti rovnovážnými patry, konkr. se jedná o extrakci methanolu vodou ze směsi methanolu a methyl-methakrylátu se stopami vody. Vstupy budou tvořeny tokem extrakčního činidla (tok suroviny je považován za konstantní) a teplotami obou vstupních proudů (extrakčního činidla a suroviny). Výstup bude tvořen výtěžkem methanolu v extraktu a výtěžkem methylmethakrylátu v rafinátu. rafinát voda směs extrakt Obrázek 6: Ilustrativní blokové schéma extraktoru Ve skrytých a výstupních neuronech může být použita jako přechodová funkce radiální báze. Tabulka shrnuje data, která lze použít k učení sítě.

Tabulka 3: Výtěžky klíčových složek při různých režimech provozu rovnovážného extraktoru m F T F T E Y MeOL Y Est m F T F T E Y MeOL Y Est t/h C C kg/h C C 1,00 1 1 0,9968 0,5948 5,50 15 25 1,0000 0,9199 1,00 1 5 0,9968 0,5934 5,50 15 35 1,0000 0,9180 1,00 1 15 0,9965 0,5921 5,50 25 1 1,0000 0,9201 1,00 1 25 0,9963 0,5898 5,50 25 5 1,0000 0,9194 1,00 1 35 0,9960 0,5864 5,50 25 15 1,0000 0,9175 1,00 5 1 0,9966 0,5789 5,50 25 25 1,0000 0,9156 1,00 5 5 0,9965 0,5777 5,50 25 35 1,0000 0,9136 1,00 5 15 0,9963 0,5757 5,50 35 1 1,0000 0,9158 1,00 5 25 0,9960 0,5748 5,50 35 5 1,0000 0,9150 1,00 5 35 0,9958 0,5719 5,50 35 15 1,0000 0,9131 1,00 15 1 0,9961 0,5389 5,50 35 25 1,0000 0,9111 1,00 15 5 0,9960 0,5381 5,50 35 35 1,0000 0,9091 1,00 15 15 0,9957 0,5358 7,75 1 1 1,0000 0,9402 1,00 15 35 0,9952 0,5338 7,75 1 5 1,0000 0,9392 1,00 25 1 0,9959 0,4912 7,75 1 15 1,0000 0,9369 1,00 25 5 0,9957 0,4911 7,75 1 25 1,0000 0,9345 1,00 25 15 0,9954 0,4887 7,75 1 35 1,0000 0,9320 1,00 25 25 0,9952 0,4840 7,75 5 1 1,0000 0,9390 1,00 25 35 0,9949 0,4820 7,75 5 5 1,0000 0,9380 1,00 35 1 0,9964 0,4422 7,75 5 15 1,0000 0,9357 1,00 35 5 0,9963 0,4414 7,75 5 25 1,0000 0,9333 1,00 35 15 0,9960 0,4395 7,75 5 35 1,0000 0,9307 1,00 35 25 0,9957 0,4358 7,75 15 1 1,0000 0,9360 1,00 35 35 0,9955 0,4325 7,75 15 5 1,0000 0,9351 3,25 1 1 0,9999 0,8968 7,75 15 15 1,0000 0,9326 3,25 1 5 0,9999 0,8964 7,75 15 25 1,0000 0,9302 3,25 1 15 0,9998 0,8954 7,75 15 35 1,0000 0,9276 3,25 1 25 0,9998 0,8943 7,75 25 1 1,0000 0,9329 3,25 1 35 0,9997 0,8933 7,75 25 5 1,0000 0,9319 3,25 5 1 0,9999 0,8942 7,75 25 15 1,0000 0,9294 3,25 5 5 0,9999 0,8938 7,75 25 25 1,0000 0,9268 3,25 5 15 0,9998 0,8927 7,75 25 35 1,0000 0,9243 3,25 5 25 0,9998 0,8917 7,75 35 1 1,0000 0,9297 3,25 5 35 0,9997 0,8906 7,75 35 5 1,0000 0,9287 3,25 15 1 0,9998 0,8875 7,75 35 15 1,0000 0,9261 3,25 15 5 0,9998 0,8871 7,75 35 25 1,0000 0,9235 3,25 15 15 0,9998 0,8860 7,75 35 35 1,0000 0,9208 3,25 15 25 0,9997 0,8849 10,00 1 1 1,0000 0,9440 3,25 15 35 0,9996 0,8838 10,00 1 5 1,0000 0,9428 3,25 25 1 0,9998 0,8805 10,00 1 15 1,0000 0,9400 3,25 25 5 0,9998 0,8800 10,00 1 25 1,0000 0,9370 3,25 25 15 0,9997 0,8789 10,00 1 35 1,0000 0,9340 3,25 25 25 0,9997 0,8777 10,00 5 1 1,0000 0,9430 3,25 25 35 0,9996 0,8765 10,00 5 5 1,0000 0,9419 3,25 35 1 0,9998 0,8730 10,00 5 15 1,0000 0,9390 3,25 35 5 0,9997 0,8726 10,00 5 25 1,0000 0,9360 3,25 35 15 0,9997 0,8714 10,00 5 35 1,0000 0,9329 3,25 35 25 0,9996 0,8702 10,00 15 1 1,0000 0,9405 3,25 35 35 0,9995 0,8690 10,00 15 5 1,0000 0,9394 5,50 1 1 1,0000 0,9299 10,00 15 15 1,0000 0,9365 5,50 1 5 1,0000 0,9292 10,00 15 25 1,0000 0,9334 5,50 1 15 1,0000 0,9274 10,00 15 35 1,0000 0,9303 5,50 1 25 1,0000 0,9256 10,00 25 1 1,0000 0,9380 5,50 1 35 1,0000 0,9238 10,00 25 5 1,0000 0,9369 5,50 5 1 1,0000 0,9283 10,00 25 15 1,0000 0,9338 5,50 5 5 1,0000 0,9276 10,00 25 25 1,0000 0,9307 5,50 5 15 1,0000 0,9259 10,00 25 35 1,0000 0,9276 5,50 5 25 1,0000 0,9240 10,00 35 1 1,0000 0,9354 5,50 5 35 1,0000 0,9222 10,00 35 5 1,0000 0,9342 5,50 15 1 1,0000 0,9243 10,00 35 15 1,0000 0,9311 5,50 15 5 1,0000 0,9236 10,00 35 25 1,0000 0,9279 5,50 15 15 1,0000 0,9218 10,00 35 35 1,0000 0,9247

I takto jednoduchá sít je schopna popsat uvedené závislosti velmi dobře s konečnou hodnou účelové funkce < 0,00087. Na tomto příkladu lze dobře ilustrovat možnosti parametrických studií: Obrázek 7: Ukázka nastavení a výsledků parametrické studie vytvořené neuronové sítě Obrázek 8: Ukázka grafu sestaveného z výsledků parametrické studie

6.3 Predikce časových řad K predikci časových řad lze přistupovat více způsoby, zde bude předveden nejjednodušší způsob pomocí tzv. časového okna. V časové řadě je nutné vymezit časové okno, které bude zahrnovat několik po sobě následujících hodnot časové řady, hodnoty časového okna představují vstupy sítě. Jedna z hodnot následujících za tímto okénkem (obvykle přímo následující hodnota), resp. více hodnot bude představovat výstup, resp. výstupy sítě. Situace je listrována na obrázku. 2 1,5 Y 1 0,5 0 0 1 2 3 4 5 6 7 8 9 10-0,5-1 -1,5 t Orig. data Predic. data Obrázek 9: Učení neuronové sítě k predikci časové řady s ukázkou několika předikovaných hodnot Posunem časového okna podél časové řady vzniká množina dat k učení sítě. Jistě je vhodné ponechat část dat mimo množinu učících dat a to jednak pro validaci sítě a jednak pro účely testování sítě. Tyto tři množiny se mohou vzájemně částečně překrývat. Při použití tohoto způsobu predikce časových řad, který je v principu velmi jednoduchý, se objevuje netriviální problém volby vzorkovací frekvence, resp. vzdálenosti bodů, které mají být sítí zpracovány a s tím související délka použitého okna. Řešení tohoto problému není jednoduché, a proto čtenáře odkazuji na příslušnou literaturu.

6.4 Klasifikační problém Klasifikační problém je sám o sobě velmi rozsáhlým předmětem, zde může být pouze nastíněn velmi zjednodušený příklad. Jedná se opět o provozní problém, konkr. o destilaci lihu na rektifikační koloně. Ukazatele jsou tentokrát diskrétní povahy, zajímá nás zda za zadaných podmínek bude výtěžek ethanolu dostatečný (tj. > 98 %) a zda bude čistota destilátu dostatečná (tj. > 90 hm. %). Vstupy do neuronové sítě jsou v tomto případě tvořeny těmito veličinami: složení vstupní směsi (hmotnostní zastoupení ethanolu v surovině) refluxní poměr (tj. hmotnostní poměr zpětného toku do hlavy kolony k toku destilátu) odtah destilátu (poměr hmotnostního toku odtahovaného destilátu k toku nástřiku) Oba výstupy jsou diskrétní povahy. Aby bylo možné takové výstupy v programu ERANN vytvořit, je nutné v případě výstupních neuronů použít funkci skokové změny signum. Síť použitá k řešení obsahovala dvě skryté vrstvy po 5 neuronech. V každé z těchto vrstev byla u 3 elementů použita přechodová funkce radiální báze a u zbylých dvou hyperbolický tangens. V tomto bodě je vhodné poznamenat, že kombinace více přechodových funkcí je typická pro řešení některých klasifikačních problémů. Na vstupních neuronech (3) bylo použito prosté předání hodnoty vstupu, jedná se tedy o elementy jejichž funkcí je pouze distribuovat hodnoty zadaných vstupních veličin na neurony ve skrytých vrstvách.

7 Literatura Na této kapitole se pracuje