ADAPTIVNÍ ALGORITMUS PRO ODHAD PARAMETRŮ NELINEÁRNÍCH REGRESNÍCH MODELŮ



Podobné dokumenty
STOCHASTICKÉ ALGORITMY V ODHADU PARAMETRŮ REGRESNÍCH MODELŮ

Navrženy v 60. letech jako experimentální optimalizační metoda. Velice rychlá s dobrou podporou teorie

OBJEKTOVÁ KNIHOVNA EVOLUČNÍCH ALGORITMŮ

AVDAT Nelineární regresní model

Genetické programování 3. část

Úvod do stochastických optimalizačních metod (metaheuristik) Moderní metody optimalizace 1

Evolučníalgoritmy. Dále rozšiřována, zde uvedeme notaci a algoritmy vznikléna katedře mechaniky, Fakulty stavební ČVUT. Moderní metody optimalizace 1

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Evoluční algoritmy. Podmínka zastavení počet iterací kvalita nejlepšího jedince v populaci změna kvality nejlepšího jedince mezi iteracemi

Úvod do optimalizace Matematické metody pro ITS (11MAMY)

PŘEDNÁŠKA 03 OPTIMALIZAČNÍ METODY Optimization methods

OPTIMALIZACE A MULTIKRITERIÁLNÍ HODNOCENÍ FUNKČNÍ ZPŮSOBILOSTI POZEMNÍCH STAVEB D24FZS

Ing. Tomáš MAUDER prof. Ing. František KAVIČKA, CSc. doc. Ing. Josef ŠTĚTINA, Ph.D.

Užití systému Matlab při optimalizaci intenzity tepelného záření na povrchu formy

OPTIMALIZACE. (přehled metod)

Adaptace v algoritmu diferenciální evoluce

ÚPRAVA METODY FLEXIBILNÍHO SIMPLEXU PRO ŘEŠENÍ PROBLÉMŮ GLOBÁLNÍ OPTIMALIZACE Miroslav Provazník

Jak se matematika poučila v biologii

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Swarm Intelligence. Moderní metody optimalizace 1

Eva Fišerová a Karel Hron. Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci.

AVDAT Klasický lineární model, metoda nejmenších

KLASIFIKAČNÍ A REGRESNÍ LESY

Optimalizace & soft omezení: algoritmy

Regresní a korelační analýza

Optimalizace provozních podmínek. Eva Jarošová

GLOBÁLNÍ OPTIMALIZACE S VYUŽITÍM SOFTWARU MATHEMATICA

Metaheuristiky s populacemi

Regresní a korelační analýza

Regresní analýza 1. Regresní analýza

Stochastické algoritmy pro globální optimalizaci

Numerické metody a programování. Lekce 8

Binární vyhledávací stromy pokročilé partie

Genetické programování

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Rekurentní rovnice, strukturální indukce

OPTIMÁLNÍ SEGMENTACE DAT

SOLVER UŽIVATELSKÁ PŘÍRUČKA. Kamil Šamaj, František Vižďa Univerzita obrany, Brno, 2008 Výzkumný záměr MO0 FVT

AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza

3. ANTAGONISTICKÉ HRY

Genetické algoritmy. Informační a komunikační technologie ve zdravotnictví

Faster Gradient Descent Methods

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Úloha - rozpoznávání číslic

12. Globální metody MI-PAA

Statistická teorie učení

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 21.

ØÍZENÉ NÁHODNÉ PROHLEDÁVÁNÍ S ALTERNUJÍCÍMI HEURISTIKAMI Josef Tvrdík Ostravská universita 1 Abstract. The paper deals with stochastic algorithms for

Klasifikační metody pro genetická data: regularizace a robustnost

Genetické algoritmy. Vysoká škola ekonomická Praha. Tato prezentace je k dispozici na:

Testování hypotéz o parametrech regresního modelu

OPTIMALIZAČNÍ ÚLOHY. Modelový příklad problém obchodního cestujícího:

Testování hypotéz o parametrech regresního modelu

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

Hledání extrémů funkcí

Umělá inteligence a rozpoznávání

SPOLEHLIVOST KONSTRUKCÍ & TEORIE SPOLEHLIVOSTI část 5: Aproximační techniky

REGRESNÍ ANALÝZA V PROSTŘEDÍ MATLAB

SPECIFICKÝCH MIKROPROGRAMOVÝCH ARCHITEKTUR

INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ. Modernizace studijního programu Matematika na PřF Univerzity Palackého v Olomouci CZ.1.07/2.2.00/28.

Algoritmy pro shlukování prostorových dat

5. Lokální, vázané a globální extrémy

Robustní odhady statistických parametrů

Algoritmizace prostorových úloh

Paralelní grafové algoritmy

Definice globální minimum (absolutní minimum) v bodě A D f, jestliže X D f

Časová a prostorová složitost algoritmů

VYUŽITÍ MATLAB WEB SERVERU PRO INTERNETOVOU VÝUKU ANALÝZY DAT A ŘÍZENÍ JAKOSTI

ANTAGONISTICKE HRY 172

Úvod do optimalizace, metody hladké optimalizace

Klasická a robustní ortogonální regrese mezi složkami kompozice

ČVUT FEL X36PAA - Problémy a algoritmy. 5. úloha - Seznámení se se zvolenou pokročilou iterativní metodou na problému batohu

Regresní a korelační analýza

5.5 Evoluční algoritmy

PRAVDĚPODOBNOST A STATISTIKA

Vzdálenost uzlů v neorientovaném grafu

Rekurentní rovnice, strukturální indukce

I. Úvod. II. Popis základních metod technické analýzy !! "# ! "" $% &'() "* *+ "" "* (,-.,/ " " "" *!!+ 01+ " * " " 2! " "*"*!

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 12.


Uni- and multi-dimensional parametric tests for comparison of sample results

4. Aplikace matematiky v ekonomii

Markov Chain Monte Carlo. Jan Kracík.

Doplňování chybějících hodnot v kategoriálních datech 2.00

ENVIRONMENTÁLNÍ OPTIMALIZACE KOMŮRKOVÉ ŽELEZOBETONOVÉ DESKY

Analýza spolehlivosti tlakové nádoby metodou Monte Carlo

Kombinatorická minimalizace

Řešení "stiff soustav obyčejných diferenciálních rovnic

Odhady Parametrů Lineární Regrese

Regresní analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel

Optimalizace obecný úvod. [proč optimalizovat?] Formalizace problému. [existují podobné problémy?]

Vyhněte se katastrofám pomocí výpočetní matematiky

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

ANALYTICKÉ PROGRAMOVÁNÍ

Grafové algoritmy. Programovací techniky

Grafové algoritmy. Programovací techniky

Datové struktury 2: Rozptylovací tabulky

EKONOMETRIE 7. přednáška Fáze ekonometrické analýzy

Transkript:

ADAPTIVNÍ ALGORITMUS PRO ODHAD PARAMETRŮ NELINEÁRNÍCH REGRESNÍCH MODELŮ Josef Tvrdík Katedra informatiky, Přírodovědecká fakulta, Ostravská univerzita, 30. dubna 22, 701 03 Ostrava e-mail: tvrdik@osu.cz Abstrakt. Článek se zabývá stochastickými algoritmy pro globální optimalizaci a jejich využitím v odhadu parametrů nelineárních regresních modelů. Je popsán algoritmus řízeného náhodného prohledávání se soutěží heuristik lokálního vyhledávání a adaptivní podmínkou ukončení. Tento algoritmus se osvědčil v obtížných úlohách odhadu parametrů nelineárního regresního modelu a lze jej doporučit pro odhad parametrů v úlohách, kde standardní deterministické algoritmy pro lokální optimalizaci selhávají. Klíčová slova: Globální optimalizace, stochastické algoritmy, nelineární regrese, adaptivní algoritmy. 1. Nelineární regresní model Uvažujme data (y, X), kde y je náhodný vektor typu n 1 a X je matice typu n k deterministických hodnot vysvětlujících veličin (regresorů). Pak aditivní nelineární regresní model má tvar Y i = g(x i, β) + ε i, i = 1, 2,..., n, (1) kde x T i = (x 1, x 2,..., x k ) je i-tý řádek matice X, β = (β 1, β 2,..., β d ) T je vektor parametrů, g je daná nelineární funkce parametrů a ε i jsou stejně rozdělené nezávislé náhodné veličiny s nulovou střední hodnotou. Odhad parametrů nelineárního modelu metodou nejmenších čtverců znamená najít globální minimum reziduálního součtu čtverců n [ ˆβ)] 2 Q(ˆβ) = Y i g(x i,. (2) i=1 Je známo, že na těchto úlohách deterministické algoritmy užívané ve statistickém software někdy selhávají [8], [18]. Pak spolehlivější alternativou odhadu parametrů je využití stochastických algoritmů pro globální optimalizaci. 2. Globální optimalizace Problém globální optimalizace lze formulovat takto: Pro účelovou funkci f : D R d R, D je hodnota f := f(x ) > globální minimum právě tehdy, když x D : f(x ) f(x). Problém určení x se nazývá problém globální optimalizace [2]. Tato formulace problému globální optimalizace jako nalezení minima není na újmu obecnosti, neboť globální maximum nalezneme jako globální minimum účelové funkce f(x). Analýza problému globální optimalizace ukazuje, že neexistuje deterministický algoritmus řešící každou úlohu globální optimalizace v polynomiálním čase, problém globální optimalizace je NP-obtížný, viz Bäck [2], str. 35 57. Pro odhad parametrů nelineárních regresního modelů nám stačí omezit se na úlohy, kdy hledáme globální minimum v uzavřené souvislé oblasti D = d j=1 a j, b j, a j < b j, j = 1, 2,..., d, (3) a účelovou funkci f(x) umíme vyhodnotit s požadovanou přesností v každém bodě x D. Omezení (3) se označuje jako box constraints, neboť oblast D je vymezena jako d-rozměrný kvádr. Jelikož neexistuje vhodný deterministický algoritmus pro řešení problému globální optimalizace, užívají se algoritmy stochastické, které hledají globální minimum heuristicky [14]. Většina takových algoritmů je

založena na jednoduchých modelech Darwinovy vývojové teorie populací a poznatků genetiky. Proto se nazývají evoluční algoritmy [2], [7]. Jejich základním rysem je to, že pracují s populací jedinců (N bodů v D) a užívají tzv. evoluční operátory, což jsou modely selekce silnějších jedinců, křížení a mutace jejich genetické informace. V průběhu prohledávání prostoru D se populace vyvíjí tak, že postupně vznikají a přežívají jedinci s nižšími hodnotami účelové funkce. Lze ukázat, že za jistých podmínek se nejlepší jedinci populace dostatečně přibližují globálnímu minimu x, viz např. [3], [13], [9]. Mezi evoluční algoritmy patří i řízené náhodné prohledávání, jehož adaptivní varianta užitá pro odhad parametrů nelineárních regresních modelů je popsána v tomto textu. Při aplikaci stochastických algoritmů v řešení praktických optimalizačních úloh narážíme na potíž nastavení vhodných hodnot řídících parametrů těchto algoritmů, což jsou např. velikost populace nebo výběr evolučních operátorů vhodných pro řešený problém. Pro rutinní využití stochastických algoritmů ve výpočetní statistice, tedy i pro odhad regresních parametrů, je nutné najít takové varianty stochastických algoritmů, které jsou adaptivní, tzn. v průběhu prohledávání prostoru D se adaptuje nejen populace bodů, ale také strategie prohledávání s ohledem na řešenou úlohu. Takové algoritmy jsou pak schopny řešit dosti širokou třídu problémů s implicitně nastavenými hodnotami řídících parametrů, tj. bez časově náročného dolaďování hodnot těchto parametrů pro řešenou úlohu, a přitom nacházet globální minimum s dostatečnou spolehlivostí a s přijatelnými časovými nároky. 3. Řízené náhodné prohledávání se soutěží lokálních heuristik Řízené náhodné prohledávání (Controlled Random Search, CRS) navrhl před třemi desetiletími Price [12] jako jednoduchý stochastický algoritmus pro hledání globálního minima. V řízeném náhodném prohledávání se v každém cyklu algoritmu nahrazuje nejhorší bod populace novým bodem, pokud tento nový bod populaci zlepšuje. Tak se populace postupně smršťuje do oblasti s nižšími hodnotami účelové funkce. Algoritmus CRS lze v pseudokódu zapsat takto: Algoritmus 1. Řízené náhodné prohledávání 1 generuj populaci P, tj. N bodů náhodně v D; 2 najdi x max P, f(x max ) f(x), x P ; 3 repeat 4 užij lokální heuristiku k vygenerování nového bodu y D; 5 if f(y) < f(x max ) then 6 x max := y; (nejhorší bod populace nahrazen novým) 7 najdi nové x max P, f(x max ) f(x), x P ; 8 endif; 9 until podmínka ukončení; Lokální heuristikou na řádku 4 rozumíme libovolný nedeterministický předpis pro vygenerování nového bodu y. V původní variantě algoritmu CRS [12] se nový bod generuje reflexí v simplexu S, který je tvořen d + 1 body v D viz Nelder a Mead [10], d + 1 bodů simplexu S vybírá z populace náhodně. Bod y lze však generovat jakoukoli jinou lokální heuristikou nebo dokonce tyto heuristiky střídat [16], [17]. Pokud v tomto střídání heuristik budou preferovány ty heuristiky, které byly v dosavadním průběhu hledání úspěšnější, je naděje, že algoritmus bude konvergovat rychleji. V takovém algoritmu lokální heuristiky soutěží o to, aby byly vybrány pro generování nového bodu. Mějme k dispozici h heuristik a v aktuálním kroku algoritmu vybíráme náhodně i-tou heuristiku s pravděpodobností q i, i = 1, 2,..., h. Pravděpodobnosti q i měníme v závislosti na úspěšnosti i-té heuristiky v dosavadním průběhu vyhledávacího procesu. Heuristiku považujeme za úspěšnou, když generuje takový nový bod y, že f(y) < f(x max ). Pravděpodobnost q i můžeme vyhodnotit jako váženou relativní úspěšnost i-té heuristiky. Váha w i se určí jako míra zlepšení funkční hodnoty w i = f max max(f(y), f min ) f max f min, (4) kde f min, f max jsou minimální a maximální hodnoty účelové funkce v populaci. Hodnoty w i jsou v intervalu (0, 1. Pravděpodobnost q i se pak vyhodnotí jako q i = W i + w 0 h j=1 (W j + w 0 ), (5)

kde W i je součet vah w i v předcházejícím hledání a w 0 > 0 je vstupní parametr algoritmu. Aby se zabránilo trvalému potlačení možnosti výběru některé z heuristik, lze zadat vstupní parametr δ > 0 a klesne-li kterákoli hodnota q i pod tuto hodnotu, jsou pravděpodobnosti výběru heuristik nastaveny na jejich počáteční hodnoty q i = 1/h. Pro různé varianty algoritmu můžeme volit různé množiny soutěžících lokálních heuristik, viz [16], [17], [19]. V odhadu parametrů nelineární regrese se osvědčil algoritmus CRS se soutěží následujících čtyř lokálních heuristik. Tři z těchto heuristik jsou založeny na znáhodněné reflexi simplexu, která byla navržena v [4]. Nový bod y se generuje ze simplexu S podle pravidla y = g + U(g x H ) (6) kde x H = arg max x S f(x) a g je těžiště zbývajících d bodů simplexu S, U je náhodná veličina rovnoměrně rozdělená na [s, α s), α > 0 a s jsou vstupní parametry, 0 < s < α/2. Ve dvou heuristikách se vybírá všech d + 1 bodů simplexu náhodně, a nastaví se různé hodnoty vstupních parametrů znáhodněné reflexe, α = 2, s = 0.5, resp. α = 5, s = 1.5. Ve třetí heuristice je jeden bod simplexu vždy bod s nejmenší funkční hodnotou v celé populaci P a zbývajících d se vybere náhodně, α = 2, s = 0.5. Čtvrtá heuristika vychází z diferenciální evoluce [15]. Nový bod y se vytváří křížením bodu (vektoru) u s náhodně vybraným bodem x. Bod u se generuje jako u = r 1 + F (r 2 r 3 ) (7) kde r 1, r 2 a r 3 jsou tři náhodně vybrané vzájemně různé body z populace P, F > 0 je vstupní parametr. Prvky y j, j = 1, 2...., d vektoru y se vytvoří křížením x a u podle pravidla y j = { uj když U j C nebo j = l x j když U j > C a j l, (8) kde l je náhodně zvolená hodnota indexu z {1, 2,..., d}, U 1, U 2,..., U d jsou nezávislé náhodné veličiny rovnoměrně rozdělené na [0, 1), C [0, 1] je vstupní parametr ovlivňující počet prvků vektoru y změněných křížením. Hodnota parametru F se určuje adaptivně postupem navrženým v [1] { max(fmin, 1 fmax když fmax F = f min ) max(f min, 1 f min f max ) f min < 1 jinak, kde f min, f max jsou minimální a maximální hodnoty účelové funkce v populaci a F min je vstupní parametr, který zajišťuje, aby F [F min, 1). Hodnoty vstupních parametrů této heuristiky jsou nastaveny F min = 0.4 a C = 0.9. V úlohách odhadu regresních parametrů je výhodné formulovat podmínku ukončení prohledávání pomocí rozdílu indexu determinace v aktuální populaci, neboť tím vyloučíme vliv jednotek, ve kterých jsou měřeny hodnoty veličiny Y, na ukončení hledání. Podmínka je tedy Rmax 2 Rmin 2 < ε, ε > 0 je vstupní parametr algoritmu, Rmax 2 a Rmin 2 jsou maximální a minimální hodnoty indexu determinace R2 v aktuální populaci P. Index determinace je dán vztahem R 2 = 1 (9) Q(β) n i=1 (Y i Y ) 2. (10) Pro další řídící parametry algoritmu CRS se soutěží těchto čtyř lokálních heuristik se osvědčily následující hodnoty: velikost populace N = 10 d, ε = 1 10 15, w 0 = 0.5 a δ = 0.05. V dalším textu je algoritmus s tímto nastavením označen CRS4HC. 4. Adaptace podmínky ukončení Další možnost, jak zvýšit adaptaci algoritmu pro odhad parametrů nelineární regrese, je v adaptivní formulaci podmínky ukončení. Ve většině úloh, kde data byla získána experimentem, jsou indexy determinace takové, že 1 R 2 > 1 10 4. Pak doporučená hodnota ε = 1 10 15 je zbytečně nízká a jen zvyšuje časovou náročnost prohledávání. Bohužel správnou hodnotu indexu determinace neznáme a dopředu tedy nemůžeme vyloučit, že zvolená hodnota ε = 1 10 15 je naopak příliš vysoká. Hodnotu ε lze však nastavovat adaptivně podle aktuálně dosaženého indexu determinace. Hodnota ε na počátku je rovna zadané počáteční hodnotě ε 0 a může být postupně snižována, pokud 1 R 2 < γ ε, kde γ 1 je další vstupní parametr, který ovlivňuje tuto adaptaci. Algoritmus takového adaptivního nastavení podmínky ukončení je zapsán v pseudokódu jako Algoritmus 2. Příkaz na řádku 14 zabraňuje nekonečnému

smyčce vnějšího cyklu while. Ve variantě algoritmu, která je v dalším textu označena CRS4HCe, byly zvoleny hodnoty parametrů řídících ukončení ε 0 = 1 10 9 a γ = 1 10 7, ostatní řídící parametry jsou stejné jako v algoritmu CRS4HC. Algoritmus 2. Adaptace podmínky ukončení CRS4HCe 1 generate population P ; 2 ε = ε 0 ; 3 pass = false; 4 while 1 R 2 < γ ε & pass is false (outer loop) 5 while Rmax 2 Rmin 2 > ε (inner loop) 6 generate a new trial point y D; 7 if f(y) < f(x max ) then 8 x max := y; 9 find new x max ; 10 endif 11 pass = true; 12 endwhile; (end of inner loop) 13 if pass is false then γ = γ/10 endif; 14 if 1 R 2 < γ ε & pass is true then 15 ε = ε/10; pass = false; 16 endif; 17 endwhile; (end of outer loop) 5. Porovnání algoritmů pro odhad parametrů nelineární regrese V tabulce 1 je uvedeno porovnání několika optimalizačních algoritmů užitých v odhadu parametrů nelineárních regresních modelů metodou nejmenších čtverců. Uvedeny jsou výsledky pro úlohy vyšší obtížnosti z databáze NIST [11]. Porovnávány byly deterministický Levenberg-Marquardtův algoritmus, který je jako funkce nlinfit součástí statistického toolboxu Matlab [5], a čtyři stochastické algoritmy. CRS1H je řízené náhodné prohledávání s reflexí simplexu jako jedinou lokální heuristikou, DER je standardní diferenciální evoluce a doporučeným nastavením vstupních řídících parametrů [15], CRS4HC a CRS4HCe jsou algoritmy se čtyřmi soutěžícími heuristikami popsané v předcházejícím textu. U stochastických algoritmů bylo pro každou úlohu provedeno sto opakování, ve kterých byla sledována časová náročnost potřebná k dosažení podmínky ukončení vyjádřená počtem vyhodnocení účelové funkce (2) a spolehlivost nalezení správného řešení vyjádřená počtem číslic, ve kterých se nalezené řešení reziduálního součtu čtverců shoduje se správným řešením [6]. V tabulce 1 jsou pak uvedeny průměrné počty vyhodnocení účelové funkce ve sloupci ne a a ve sloupcích R procento opakování, ve kterých bylo nalezeno řešení úlohy shodující se správným alespoň ve čtyřech číslicích. Pro snadnější porovnání časových nároků jsou Tabulka 1: Porovnání algoritmů v odhadu parametrů nelineární regrese Algoritmus nlinfit CRS4HC CRS4HCe DER CRSH1 Úloha výsledek R ne R rne R rne R rne bennett5 L 100 41335 100-11 5 190 1-69 boxbod X 100 1308 100-37 100 206 90-1 eckerle4 L 100 2629 100-35 100 140 94 3 mgh09 L 100 10422 100-15 100 1427 0 184 mgh10 L 100 20761 100 1 0 478 0-50 rat42 OK 100 2942 100-35 100 474 81 42 rat43 OK 100 4807 100-39 100 904 87 83 thurber OK 100 13915 100-30 0 1912 1 824 ve sloupcích rne uvedeny průměrné hodnoty relativního rozdílu ne vzhledem k CRS4HC v procentech, takže záporné hodnoty znamenají menší časovou náročnost než má CRS4HC, kladné hodnoty naopak náročnost vyšší. Ve sloupci nlinfit výsledek L znamená ukončení iterace mimo globální minimum, X je numerický kolaps procedury a OK je správný výsledek. Vidíme, že Levenberg-Marquardtův algoritmus

selhal v pěti úlohách z osmi a podobně neúspěšné byly i algoritmy DER a CRSH1, zatímco adaptivní algoritmy CRS4HC a CRS4HCe se soutěžícími lokálními heuristikami nacházely v těchto úlohách úspěšně globální minimum s přijatelnými časovými nároky (1000 vyhodnocení funkce na PC trvá okolo 1 vteřiny). Adaptace podmínky ukončení v CRS4HCe navíc ve většině úloh zmenšila časovou náročnost oproti CRS4HC zhruba o třetinu. 6. Závěr Abychom nevyvolávali přehnaně optimistická očekávání o efektivnosti a spolehlivosti adaptivních stochastických algoritmů, je nutno uvést, že pro úlohy nižší a střední obtížnosti nebyla převaha adaptivních algoritmů CRS4HC a CRS4HCe tak výrazná. Podrobnější výsledky stochastických algoritmů v odhadu parametrů nelineárních regresních modelů na všech úlohách NIST jsou uvedeny v [20] nebo v [21], kde jsou také definována ohraničení prohledávaného prostoru D pro jednotlivé úlohy. Úloha globální optimalizace nemá žádné definitivní řešení, a proto také doporučení týkající se stochastických algoritmů pro odhad parametrů nelineárních regresních modelů nemohou být jednoznačná. Je nutné si vždy uvědomovat, že stochastické algoritmy hledají řešení heuristicky, tzn. bez záruky nalezení správného řešení. To ovšem nezaručují ani dosud užívané deterministické algoritmy, které konvergují k nejbližšímu lokálnímu minimu. Důležité poznatky o vlastnostech stochastických algoritmů jsou založeny na experimentálních výsledcích, takže poznání postupuje pomalu a nikdy nebude uzavřeno. Úspěšnost adaptivního algoritmu CRS4HCe na testovaných úlohách je však dobrým důvodem, aby byl v aplikacích nelinární regrese využíván. Zdrojový text adaptivního algoritmu CRS4HCe pro odhad parametrů nelineární regresních modelů v Matlabu [5] je dostupný k volnému využití na webové stránce autora článku (http://albert.osu.cz/tvrdik/). Výzkum adaptivních stochastických algoritmů nepochybně bude pokračovat a zřejmě budou pak k dispozici algoritmy, které předčí CRS4HCe v úlohách odhadu parametrů nelineární regrese a budou vhodné i pro jiné aplikace ve výpočetní statistice. V tomto ohledu je velmi slibný adaptivní algoritmus diferenciální evoluce se soutěží různých nastavení řídících parametrů [22]. Literatura [1] Ali M. M., Törn A. (2004) Population set based global optimization algorithms: Some modifications and numerical studies. Computers and Operations Research 31, 1703 1725. [2] Bäck T. (1996) Evolutionary Algorithms in Theory and Practice. Oxford University Press, New York. [3] Holland J. H. (1975) Adaptation in Natural and Artificial Systems, The University of Michigan Press, Ann Arbor. [4] Křivý I., Tvrdík J. (1995) The Controlled Random Search Algorithm in Optimizing Regression Models. Comput. Statist. and Data Anal. 20, 229 234. [5] MATLAB, version 7, The MathWorks, Inc., 2005. [6] McCullough, B.D.,Wilson, B., (2005) On the accuracy of statistical procedures in Microsoft Excel 2003. Comput. Statist. and Data Anal. 49, 1244 1252. [7] Michalewicz Z. (1992) Genetic Algorithms + Data Structures = Evolution Programs. Berlin, Springer Verlag. [8] Militký, J. (1994) Nonlinear Regression on Personal Computers. In: R. Dutter and W. Grossmann (Eds.), COMPSTAT 1994. Proceedings in Computational Statistics, Physica-Verlag, Vienna, 395 400. [9] Mišík L., Tvrdík J., Křivý I. (2001) On Convergence of a Class of Stochastic Algorithms. In: Antoch, J. and Dohnal, G. (Eds.), ROBUST 2000, JČMF, Praha, 198 209. [10] Nelder J.A., Mead, R. (1964) A Simplex Method for Function Minimization. Computer J. 7, 308 313. [11] NIST Information Technology Laboratory. (2001) Statistical Reference Datasets. Nonlinear regression. http://www.itl.nist.gov/div898/strd/. [12] Price W.L. (1977) A Controlled Random Search Procedure for Global Optimization. Computer J. 20, 367 370.

[13] Solis F. J. and Wets R. J-B., (1981) Minimization by random search techniques. Mathematics of Operations Research 6, 19 30. [14] Spall J. C. (2003) Introduction to Stochastic Search and Optimization, Wiley-Intersience. [15] Storn R., Price K. (1997) Differential Evolution a Simple and Efficient Heuristic for Global Optimization. J. Global Optimization 11, 341 359. [16] Tvrdík J., Křivý I., Mišík L. (2001) Evolutionary Algorithm with Competing Heuristics. In: Matoušek R. and Ošmera P. (eds), MENDEL 2001, 7-th Int. Conference on Soft Computing, University of Technology, Brno, 58 64. [17] Tvrdík, J. Mišík L., Křivý I. (2002) Competing Heuristics in Evolutionary Algorithms. In: Sinčák P. et al. (Eds.), 2nd Euro-ISCI Intelligent Technologies - Theory and Applications, IOS Press, Amsterdam, 159 165. [18] Tvrdík J., Křivý I., (2004) Comparison of algorithms for nonlinear regression estimates. In: Antoch, J. (ed), COMPSTAT 2004. Physica-Verlag, Heidelberg New York, 1917 1924. [19] Tvrdík, J. (2004) Generalized controlled random search and competing heuristics. In: Matoušek R. and Ošmera P. (eds), MENDEL 2004, 10th International Conference on Soft Computing, University of Technology, Brno, 228 233. [20] Tvrdík J., Křivý I., Mišík L. (2006) Adaptive population-based algorithm for global optimization. COMPSTAT 2006 (v tisku). [21] Tvrdík J., Křivý I., Mišík L. (2006) Adaptive population-based search: Application to nonlinear regression. IRAFM Research Report No. 98, University of Ostrava. http://ac030.osu.cz/irafm/resrep.html [22] Tvrdík J. (2006) Competitive Differential Evolution. In: Matoušek R. and Ošmera P. (eds), MENDEL 2006, 12th International Conference on Soft Computing, University of Technology, Brno, 7 12. Poděkování: Tato práce byla podporována grantem GAČR 201/05/0284.