ØÍZENÉ NÁHODNÉ PROHLEDÁVÁNÍ S ALTERNUJÍCÍMI HEURISTIKAMI Josef Tvrdík Ostravská universita 1 Abstract. The paper deals with stochastic algorithms for

Podobné dokumenty
ADAPTIVNÍ ALGORITMUS PRO ODHAD PARAMETRŮ NELINEÁRNÍCH REGRESNÍCH MODELŮ

STOCHASTICKÉ ALGORITMY V ODHADU PARAMETRŮ REGRESNÍCH MODELŮ

OBJEKTOVÁ KNIHOVNA EVOLUČNÍCH ALGORITMŮ

Matematika II Aplikace derivací

Matematika II Limita a spojitost funkce, derivace

Matematika II Lineární diferenciální rovnice

Navrženy v 60. letech jako experimentální optimalizační metoda. Velice rychlá s dobrou podporou teorie

Teorie Pøíèné vlny se ¹íøí v napjaté strunì pøibli¾nì rychlostí. v =

ÚPRAVA METODY FLEXIBILNÍHO SIMPLEXU PRO ŘEŠENÍ PROBLÉMŮ GLOBÁLNÍ OPTIMALIZACE Miroslav Provazník

Exponenciální rozdìlení

Matematika II Extrémy funkcí více promìnných

Úèinný prostorovì-rozdìlující algoritmus pro shlukování pomocí k-støedu

v trojúhelníku P QC sestrojíme vý¹ky na základnu a jedno rameno, patu vý¹ky na rameno oznaèíme R a patu na základnu S

Matematika II Urèitý integrál

Matematika II Funkce více promìnných

Obsah. Zelinka: UI v problémech globální optimalizace BEN technická literatura 3

Úvod do stochastických optimalizačních metod (metaheuristik) Moderní metody optimalizace 1

Heuristiky UNIVERZITA PALACKÉHO V OLOMOUCI KATEDRA MATEMATICKÉ ANALÝZY A APLIKACÍ MATEMATIKY. Vypracovala:


Genetické programování 3. část

OPTIMALIZACE. (přehled metod)

Aproximace funkcí. Chceme þvzoreèekÿ. Známe: celý prùbìh funkce

Rovnováha kapalina{pára u binárních systémù

Urèování polohy Nokia N76-1

Úvod do optimalizace Matematické metody pro ITS (11MAMY)

Evolučníalgoritmy. Dále rozšiřována, zde uvedeme notaci a algoritmy vznikléna katedře mechaniky, Fakulty stavební ČVUT. Moderní metody optimalizace 1


Matematika I Posloupnosti

Stochastické algoritmy pro globální optimalizaci

OPTIMALIZACE FUNKCE GENETICKÝM ALGORITMEM

Ing. Tomáš MAUDER prof. Ing. František KAVIČKA, CSc. doc. Ing. Josef ŠTĚTINA, Ph.D.

Užití systému Matlab při optimalizaci intenzity tepelného záření na povrchu formy

Matematika I Ètvercové matice - determinanty

NEKOVÉ PØEVODOVKY ØADA K

y 2 x 2 max F(X) x 1 y 1

NEKOVÉ PØEVODOVKY ØADA X

Evoluční algoritmy. Podmínka zastavení počet iterací kvalita nejlepšího jedince v populaci změna kvality nejlepšího jedince mezi iteracemi

Swarm Intelligence. Moderní metody optimalizace 1

Algoritmy pro spojitou optimalizaci

Matematika I Podprostory prostoru V n

VLASTNOSTI PARAMETRY SVÍTIDLA VÝHODY NA PØÁNÍ


Soft Computing (SFC) 2014/2015 Demonstrace u ení sít RCE, Java aplikace

Vaše uživatelský manuál NOKIA N81 8GB

Biologicky inspirované výpočty: evoluční algoritmy

Numerické metody a programování. Lekce 8

Marta Vomlelová

APROXIMACE KŘIVEK V MATLABU NEWTONŮV INTERPOLAČNÍ POLYNOM CURVE FITTING IN MATLAB NEWTON INTERPOLATION POLYNOMIAL

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Návrh a implementace algoritmů pro adaptivní řízení průmyslových robotů

PARALELISMUS V DIFERENCIÁLNÍ EVOLUCI A JEJICH ADAPTIVNÍCH VARIANTÁCH

Adaptace v algoritmu diferenciální evoluce

Optimalizace obecný úvod. [proč optimalizovat?] Formalizace problému. [existují podobné problémy?]

Filtrace v prostorové oblasti

PŘEDNÁŠKA 03 OPTIMALIZAČNÍ METODY Optimization methods

Heuristické řešení problémů. Seminář APS Tomáš Müller

Zpracování textù poèítaèem


Publikování. Zaèínáme. Odesílání souborù. Publikování

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)


Mince zajímají nejen numismatiky. (Coins are of interest not only for numismatists) L'ubomíra Dvoøáková, Marie Dohnalová, Praha

OPTIMALIZACE A MULTIKRITERIÁLNÍ HODNOCENÍ FUNKČNÍ ZPŮSOBILOSTI POZEMNÍCH STAVEB D24FZS

i=1 Přímka a úsečka. Body, které leží na přímce procházející body a a b můžeme zapsat pomocí parametrické rovnice


Numerická derivace a kvadratura

dokumentu: Proceedings of 27th International Conference Mathematical Methods in

typ Provedení - filtrace: 1 filtr G4 pro èerstvý nasávaný vzduch 1 filtr G4 pro odvádìný vzduch Výrobní øada

OBECN ZÁVAZNÁ VYHLÁ KA. Obce Plavsko. O fondu rozvoje bydlení

map Manažerský nástroj

Statistika pro geografy. Rozd lení etností DEPARTMENT OF GEOGRAPHY

Kombinatorická minimalizace

Unfolding - uºivatelský manuál

Investice a akvizice

Matematika pro informatiky


Externí sluchátko do vozu Nokia Instalaèní pøíruèka U¾ivatelská pøíruèka

Úvodní info. Studium

nazvu obecnou PDR pro neznámou funkci

Hledání kořenů rovnic jedné reálné proměnné metoda půlení intervalů Michal Čihák 23. října 2012

ACTA UNIVERSITATIS AGRICULTURAE ET SILVICULTURAE MENDELIANAE BRUNENSIS SBORNÍK MENDELOVY ZEMĚDĚLSKÉ A LESNICKÉ UNIVERZITY V BRNĚ

Použití softwaru VisVAP pro vývoj nových systémů řízení dopravy aplikace fuzzy algoritmů pro LŘD a SSZ.

Převedení okrajové úlohy na sled

Hledání extrémů funkcí

Faster Gradient Descent Methods

P edpov ny J. Hollandem v 60. letech b hem jeho práce na celulárních automatech

Summer Workshop of Applied Mechanics. Závislost míry tuhosti laminátové desky na orientaci vrstev a její maximalizace

I. Úvod. II. Popis základních metod technické analýzy !! "# ! "" $% &'() "* *+ "" "* (,-.,/ " " "" *!!+ 01+ " * " " 2! " "*"*!

Viriálová stavová rovnice 1 + s.1

HAWAII hydro plus top

1 Posloupnosti a řady.

Omlouváme se všem ètenáøùm a autorùm knihy!


Návrh na na ízení exekuce s vysv tlivkami. Tento návrh lze pou ít na v echny p ípady na ízení exekuce.

Home Media Server. Instalace aplikace Home Media Server do poèítaèe. Správa mediálních souborù. Home Media Server

D LE ITÉ INFORMACE. P edstavujeme vám zakázkový katalogový program COOL Pocket Katalog do kapsy.

Úvod do mobilní robotiky AIL028

map Manažerský nástroj pro analýzu mailové komunikace firemních týmù a neformálních skupin

1. Základní technické údaje. 2. Popis zaøízení. 3.2 Výstupy. 3. Vstupy a výstupy. 3.1 Vstupy. 2 JESY s.r.o.

Aproximace funkcí. x je systém m 1 jednoduchých, LN a dostatečně hladkých funkcí. x c m. g 1. g m. a 1. x a 2. x 2 a k. x k b 1. x b 2.

Transkript:

ØÍZENÉ NÁHODNÉ PROHLEDÁVÁNÍ S ALTERNUJÍCÍMI HEURISTIKAMI Josef Tvrdík Ostravská universita 1 Abstract. The paper deals with stochastic algorithms for global optimization over continuous space. Special attention is given to the controlled random search (CRS). A generalization of CRS is proposed where several heuristics generating a new trial point are changing at random. The condition for asymptotic convergence of the algorithm are brie- y discussed. The generalized CRS algorithm has been implemented in Matlab and tested on several problems. The Matlab implementation of the CRS algorithm is available at the author of the paper. Klíèová slova: globální optimalizace, stochastické algoritmy, konvergence, øízené náhodné prohledávání, heuristiky, Matlab. Problém globální optimalizace. Úlohu nalezení globálního minima mù¾eme formulovat takto: Mìjme funkci Pak f : D!R;D R d x opt = arg min x2d f(x) je globální minimum. Funkci f nazýváme cílovou funkcí (objective function). Nalézt obecné øe¹ení takto jednodu¹e formulovaného problému je obtí¾né, zvlá¹tì kdy¾ cílová funkce je multimodální, není diferencovatelná, pøípadnì má dal¹í nepøíjemné vlastnosti. Nedávné teoretické výsledky indikují, ¾e patrnì neexistuje algoritmus øe¹ící obecnou úlohu globální optimalizace (tj. nalezení dostateènì pøesné aproximace x opt ) v polynomiálním èase [2], str. 35{62. V posledních desetiletích se s pomìrným úspìchem pro hledání globálního minima takových funkcí u¾ívají stochastické algoritmy zejména evoluèního typu, viz napø. [2,3,4,6,8]. V tomto pøíspìvku se omezíme na úlohy, kdy hledáme globální minimum ve spojité oblasti D = Q d i=1 <a i;b i >; a i <b i ; i =1; 2;:::;d (tzv. box constraints) a cílovou funkci f(x) umíme vyhodnotit s po¾adovanou pøesností v ka¾dém bodì x 2 D. Pro úlohy øe¹ené numericky na poèítaèi nepøedstavuje box constraints ¾ádné podstatné omezení, nebo» hodnoty a i ;b i jsou tak jako tak omezeny datovým typem u¾itým pro x a f(x). 1 Tato práce byla podporována z projektu institucionálního výzkumu CEZ: J09/98:179000002. 1

Øízené náhodné prohledávání. Jedním z mnoha stochastických algoritmù hledání globálního minima je øízené náhodné prohledávání (controlled random search, CRS) [12]. Tento algoritmus mù¾eme zapsat procedure CRS; begin generuj populaci P, tj. N bodù náhodnì v D, repeat najdi x max 2 P takové, ¾e f(x max ) f(x); x 2 P repeat y := heuristika(p ); y 2 D until f(y) f(x max ); x max := y; until podmínka ukonèení; end fcrsg; Funkcí heuristika(p ) v algoritmu CRS rozumíme nìjaké nedeterministické pravidlo, které z bodù populace P vytvoøí bod y 2 D. Pokud tento bod y " zlep¹uje\ populaci P, nahradí v ní nejhor¹í bod x max. Podmínka ukonèení bývá vìt¹inou formulována tak, ¾e populace nebo její èást je dostateènì homogenní co do vzdálenosti jejích bodù nebo hodnot cílové funkce. V pùvodním algoritmu CRS Price [12] jako heuristiku u¾íval reexi známou ze simplexové metody [11] aplikovanou na náhodnì vybraný simplex (d + 1 bodù) z populace P. Jsou známy i jiné varianty tohoto algoritmu [1, 7]. Z popisu algoritmu CRS je zøejmé, ¾e v nìm u¾itá funkce heuristika(p ) nemusí být zalo¾ena na stejných pravidlech v prùbìhu celého prohledávání. Støídání více heuristik bylo u¾ito v evoluèním algoritmu se soutì¾ícími heuristikami [15], kde jsou i navr¾ena pravidla pro zmìny hodnot pravdìpodobnosti výbìru heuristiky v závislosti na její dosavadní úspì¹nosti v prùbìhu vyhledávání. V tomto pøíspìvku se bude zabývat algoritmem u¾ívajícím jen jednoduché náhodné støídání h heuristik, kdy pravdìpodobnost výbìru i,té heuristiky je konstantní bìhem celého procesu a je rovna 1=h, tj. pravdìpodobnost je rozdìlena rovnomìrnì. Aplikací tohoto pravidla dostaneme algoritmus CRS s alternujícími heuristikami. Algoritmus CRS je speciálním pøípadem dosti obecné tøídy evoluèních algoritmù [9],pro kterou byly zkoumány podmínky teoretické konvergence. Evoluèní algoritmus je konvergentní tehdy, kdy¾ limita pravdìpodobnosti nalezení øe¹ení velmi blízkého hodnotì x opt je rovna jedné. Z výsledkù Mi¹íka et al [9] vyplývá, ¾e konvergence algoritmu CRS závisí na vlastnostech u¾ité heuristiky. Algoritmus CRS je konvergentní, kdy¾ v ka¾dém kroku je alespoò s pravdìpodobností p i u¾ita heuristika zaruèující, ¾e pravdìpodobnost vygenerování bodu y z libovolné otevøené mno¾iny S D je kladná a øada P 1 i=1 p i je divergentní. Asymptotická konvergence algoritmu CRS s alternujícími heuristikami je tedy zaruèena. kdy¾ alespoò jedna ze støídajících se heuristik umí\ s kladnou pravdìpodobností vygenerovat bod y 2 " S. Výsledky experimentální testování (rovnì¾ v [9]) v¹ak ukázaly, ¾e teoreticky konvergentní algoritmus nemusí být nutnì úspì¹nìj¹í pøi øe¹ení konkrétního problému globální optimalizace (ukonèeném po koneèném poètu krokù) ne¾ nekonvergentní. Bohu¾el èasto je hor¹í

nejen v rychlosti konvergence, ale i ve spolehlivosti nalezení øe¹ení blízkého globálnímu minimu. Heuristiky. Heuristik pro støídání v algoritmu CRS se nabízí nepøeberné mno¾ství a jejich výbìrem mù¾eme ovlivnit vlastnosti algoritmu, jak teoretickou konvergenci, tak rychlost a spolehlivost prohledávání. Pøed návrhem mno¾iny alternujících heuristik pro tuto implementaci algoritmu byly provedeny pomìrnì rozsáhlé testovací pokusy k získání pøehledu o základních vlastnostech jednotlivých heuristik pøipadajících v úvahu pro pou¾ití v CRS. Pro toto testování byly zvoleny tøi èasto u¾ívané funkce [13, 14]: první de Jongova funkce (vícerozmìrná koule), tj. jednomodální funkce pova¾ovaná za velmi snadnou úlohu, <a i ;b i >=<,5:12; 5:12 >, druhá de Jongova funkce (Rosenbrockovo sedlo, známá i pod názvem banánové údolí), jednomodální funkce, støednì obtí¾ná pro algoritmy globální optimalizace, <a i ;b i >=<,2:048; 2:048 >, Ackleyho funkce, multimodální s mnoha lokálními minimy, <a i ;b i >=<,30; 30 >. Na tyto úlohy byl opakovanì aplikován algoritmus CRS, v¾dy u¾ívající jednu z 50 testovaných heuristik. Pro ka¾dou úlohu a heuristiku bylo provedeno 100 nezávislých opakování. Sledovanými velièinami byly spolehlivost nalezení globálního minima vyjádøená jako relativní èetnost úspì¹ných výsledkù a rychlost konvergence mìøená poètem vyhodnocení cílové funkce potøebným k dosa¾ení podmínky ukonèení prohledávání. Kromì toho byly sledovány i dal¹í charakteristiky procesu prohledávání, jejich¾ analýza bude pøedmìtem jiné práce. U¾ité heuristiky byly inspirovány rùznými postupy u¾ívanými ve stochastických algoritmech optimalizace: evoluèní strategie (ES), [2, 3, 6], testováno 8 variant, reexe simplexu, [12, 7], testováno 12 variant, diferenciální evoluce (DE), [13, 14], testováno 12 variant, breeder genetic algorithm (BGA), [5, 10], testováno 18 variant. Heuristiky BGA byly nejménì úspì¹né a v tomto èlánku se jimi nebudeme dále zabývat, ostatní heuristiky struènì popí¹eme. Heuristiky zalo¾ené na ES generují nový bod y podle následujícího pravidla y i = x best i + U; i =1; 2;:::;d; kde x best i je i,tá souøadnice bodu x best, tj. bodu s nejmen¹í funkèní hodnotou v populaci P a U je náhodná velièina, U N(0; 2 i ). Hodnota smìrodatné odchylky i je stanovována z celé populace (heuristika esbest-pop) jako i = k(max x i, min x i )+"; operátory max; min znamenají nejvìt¹í, resp. nejmen¹í hodnotu i-té souøadnice v aktuální populaci P, " (v implementaci " =1 10,4 ) zabezpeèuje, ¾e hodnota i je kladná, k je vstupní øídící parametr heuristiky, k>0. V heuristice esbest-2pts je smìrodatná odchylka

i urèována ze dvou náhodnì vybraných bodù r, s z populace P pøi vynechání nejlep¹ího bodu x best i = k j r i, s i j +"; k je opìt vstupní parametr heuristiky, ostatní symboly mají stejný význam jako vý¹e. Znáhodnìná reexe simplexu [7] náhodnì vybraného z populace P je popsána vztahem y = g + Z(g, x); kde x je bod simplexu s nejvy¹¹í funkèní hodnotou (v heuristice re-worst) nebo náhodný bod simplexu (v heuristice re-rand), g je tì¾i¹tì zbývajících d bodù simplexu a Z je spojitá náhodná velièina rovnomìrnì rozdìlená na intervalu h0;), je vstupní parametr heuristiky. Z diferenciální evoluce vycházejí dva typy heuristik. Heuristika de-rand generuje bod u u = r1 + F (r2, r3); r1; r2; r3 jsou navzájem rùzné body náhodnì vybrané z populace P. F je vstupní parametr heuristiky, F > 0. Heuristika de-best je zalo¾ena na modikaci bodu x best (s nejmen¹í funkèní hodnotou a aktuální populaci) podle následujícího pravidla u = x best + F (r1 + r2, r3, r4); r1; r2; r3; r4 jsou opìt navzájem rùzné body náhodnì vybrané z populace P (kromì x best ) a F je vstupní parametr. Nový vektor y vznikne " køí¾ením\ vektoru u a náhodnì vybraného vektoru x tak, ¾e ka¾dá slo¾ka x i je pøepsána hodnotou u i s pravdìpodobností C, C 2h0; 1i je dal¹í vstupní parametr heuristiky. Pokud ¾ádné x i nebylo pøepsáno hodnotou u i nebo pøi volbì C =0, pøepisuje se jedna náhodnì vybraná slo¾ka vektoru x. ádná z uvedených heuristik nezaruèuje, ¾e jí vygenerovaný bod y nutnì le¾í v D. Pokud nastane, ¾e y 62 D, je aplikována tzv. perturbace [6], která pøeklopí souøadnici y i nele¾ící v ha i ;b i i dovnitø mnohorozmìrného kvádru D zrcadlovì vzhledem k pøíslu¹né stìnì. Výsledky algoritmu CRS s jednou heuristikou. Pro v¹echny testovací úlohy byly voleny shodné vstupní parametry algoritmu CRS, ato velikost populace N =10d podmínka ukonèení f(n=2), f(1) 1 10,7, kdy¾ populace je uspoøádána podle funkèních hodnot, tj. f(1) f(2) ::: f(n) Úspì¹nost vyhledávání byla hodnocena podle toho, zda dosa¾ená hodnota f(1) byla dostateènì blízká hodnotì f(x opt ), která je pro uvedené testované funkce rovna 0. Vyhledávání je pova¾ováno za úspì¹né, pokud f(1) < 1,3 pro Ackleyho funkci a f(1) < 1n,6 pro ostatní testované funkce. Vstupní parametry jednotlivých heuristik jsou spolu s výsledky uvedeny v tab.1. Ve sloupcích NE v této tabulce jsou prùmìrné hodnoty poètu vyhodnocení cílové funkce pro splnìní podmínky ukonèení u pokusù, které skoèily úspì¹ným nalezením globálního minima. Spolehlivost vyhledávání R je relativní èetnost úspì¹ného nalezení globálního minima, vyjádøená v procentech.

Tabulka 1. Spolehlivost a rychlost konvergence algoritmu CRS s jednou heuristikou funkce dejong1 Rosenbrock Ackley d =3 d =2 d =2 heuristika p1 p2 R NE R NE R NE (k; F; ) (C) esbest-2pts 1-100 585 100 3380 0 - esbest-pop 0.2-100 457 100 2603 0 - de-best 0.5 0.5 100 702 100 1060 93 752 de-best 0.9 0.5 100 1403 100 2586 96 1266 de-rand 0.5 0.5 96 879 39 1393 60 850 de-rand 0.9 0.5 100 1174 82 2049 75 1038 re-rand 2-100 892 100 745 99 1392 re-rand 6-100 2364 100 1565 99 3556 re-worst 2-100 875 100 576 99 1228 re-worst 6-100 2463 100 1430 98 3413 Algoritmus CRS a alternujícími heuristikami. Algoritmus CRS byl implementován v Matlabu se støídáním 10 heuristik uvedených v tab.1. Výsledky dosa¾ené na testovacích funkcích jsou uvedeny v tab.2. Ve sloupci sm.odch. jsou smìrodatné odchylky poètu vyhodnocení cílové funkce a ve sloupci NE1 prùmìrné hodnoty poètu vyhodnocení cílové funkce potøebné pro pøiblí¾ení nejlep¹ího bodu v populaci (f(1)) k hledanému globálnímu minimu. Oproti tab.1 jsou uvedeny i výsledky pro Ackleyho funkci s d = 10 a pro Griewangkovu funkci [13], < a i ;b i >=<,400; 400 >; i = 1; 2;:::;10. Tato multimodální funkce je pova¾ována ze obtí¾nou úlohu globální optimalizace. Porovnáním výsledkù v tabulkách 1 a 2 vidíme, ¾e algoritmus s alternujícími heuristikami je spolehlivìj¹í ne¾ je prùmìrná spolehlivost algoritmù CRS s jednou heuristikou a také hodnoty NE jsou podstatnì ni¾¹í ne¾ prùmìr z hodnot dosa¾ených CRS s jednou heuristikou. Tabulka 2. Algoritmus CRS s alternujícími heuristikami funkce d R NE sm.odch. NE1 DeJong1 3 100 858 55 647 Rosenbrock 2 100 1111 115 798 Ackley 2 95 1137 106 538 Ackley 10 99 11881 526 5746 Griewangk 10 62 10131 2727 9055 Zdrojový text implementace algoritmu CRS s alternujícími heuristikami gcrs alth.m a dal¹í odtud volané funkce (esbest pop.m, esbest 2pts.m, de rand.m, de best.m, re worst.m, re rand.m, zrcad.m) jsou k dispozici u autora pøíspìvku a budou dostupné i na webovské stránce www.osu.cz/tvrdik.

Závìr. CRS s alternujícími heuristikami je jednoduchý algoritmus, který mù¾e být snadno pou¾it k hledání globální minima v situacích, kdy lokální optimalizátory nejsou úspì¹né. Výhodou tohoto algoritmu je jednoduchost u¾ití, nebo» v¹echny øídící parametry algoritmu jsou nastaveny implicitnì. Nevýhodou je ponìkud vìt¹í èasová nároènost výpoètu ne¾ u lokálních optimalizátorù a samozøejmì i spoleèná vlastnost v¹ech stochastických algoritmù, toti¾ to, ¾e o výsledku dosa¾eném v koneèném poètu krokù nikdy nevíme s jistotou, zda je skuteènì blízký globálnímu minimu. Literatura [1] Ali, M.M., Törn, A. and Viitanen, S., A numerical comparison of some controlled random search algorithms, J. Global Optimization, 11 377{385, (1997). [2] Bäck, T., Evolutionary Algorithms in Theory and Practice. New York: Oxford University Press (1996). [3] Bäck, T. and Schwefel, H.P., An Overview of Evolutionary Algorithms for Parameter Optimization, Evolutionary Computation, 1, 1{23 (1993). [4] Goldberg, D.E., Genetic algorithms in search, optimization, and machine learning Addison Wesley, Reading (1989). [5] Haslinger, J., Jedelský, D., Kozubek, T. and Tvrdík, J., Genetic and random search methods in optimal shape design problems, J. Global Optimization 16, 109{131 (2000). [6] Kvasnièka, V., Pospíchal, J. and Tiòo, P.. Evoluèné algoritmy, STU Bratislava, (2000) [7] Køivý, I. and Tvrdík, J.: The Controlled Random Search Algorithm in Optimizing Regression Models. Comput. Statist. and Data Anal., 20, 229{234, (1995). [8] Michalewicz, Z., Genetic algorithms + data structures = evolutionary program, Springer-Verlag, Berlin, (1992). [9] Mi¹ík, L., Tvrdík, J., Køivý, I., On Convergence of a Class of Stochastic Algorithms, In: ROBUST'2000 (eds J. Antoch a G. Dohnal), 198{209, JÈMF Praha, (2001). [10] Mühlenbein, H., Schlierkamp-Voosen, D., Predictive models for breeder genetic algorithm, I. Continuous parameter optimization, Evolutionary Computation, 1, 25{49, (1993) [11] Nelder, J.A., Mead, R., A simplex method for function minimization, Computer J., 7(1) 308{313, (1964). [12] Price, W.L., A controlled random search procedure for global optimization. Computer J., 20(4) 367-370, (1976). [13] Storn, R. and Price, K., Dierential evolution - a Simple and Ecient Heuristic for Global Optimization over Continuous Spaces, J. Global Optimization 11, 341{359, 1997. [14] Tvrdík, J. and Køivý, I., Simple Evolutionary Heuristics for Global Optimization. Comput. Statist. and Data Anal. 30, 345{352, (1999). [15] Tvrdík, J., Køivý, I., Mi¹ík, L., Evolutionary algorithm with competing heuristics, In: MENDEL'2001. 6th International Conference on Soft Computing, 58{64, VUT Brno, (2001). Adresa pracovi¹tì autora: Katedra infromatiky a poèítaèù Pøírodovìdecká fakulta Ostravská universita 30. dubna 22, 701 03 Ostrava e-mail: tvrdik@osu.cz