Univerzita Hradec Králové Fakulta informatiky a managementu Katedra informačních technologií

Rozměr: px
Začít zobrazení ze stránky:

Download "Univerzita Hradec Králové Fakulta informatiky a managementu Katedra informačních technologií"

Transkript

1 Univerzita Hradec Králové Fakulta informatiky a managementu Katedra informačních technologií Aplikace strojového učení v oblasti e-komerce Diplomová práce Autor: Pavel Vraný Studijní obor: aplikovaná informatika Vedoucí práce: Ing. Filip Malý, Ph.D. Hradec Králové srpen 2013

2 Prohlášení: Prohlašuji, že jsem diplomovou práci zpracoval samostatně a s použitím uvedené literatury. V Hradci Králové dne Pavel Vraný

3 Poděkování Děkuji vedoucímu diplomové práce Ing. Filipovi Malému, Ph.D. za vstřícný přístup, věcné připomínky a čas, který mi věnoval.

4 Anotace Cílem diplomové práce je představit strojové učení jako účinný nástroj ke zvyšování efektivity v oblasti e-komerce a na praktických příkladech demonstrovat jeho nasazení. Nejdříve jsou popsány nezbytné teoretické základy strojového učení a některé často používané algoritmy. Další část práce je věnována aplikaci na vybrané problémové domény. Na závěr jsou provedeny ukázkové implementace některých z nich. Annotation Title: Application of machine learning methodsin e-commerce The aim of the diploma thesis is to introduce the machine learning as an effective tool to increase the efficiency in the field of e-commerce and describe its application on practical examples. The theoretical part focuses on the description of basic concepts and describes some commonly used algorithms. Another part is devoted to the application to the selected problem domains and the final part is deal with a sample implementations of some of thems.

5 Obsah 1 Úvod Cíl a metodika práce Popis použitých metod Učení s učitelem Lineární regrese Gradient descent...14 Klasifikace Naivní bayesovský model Rozhodovací stromy Logistická regrese Klasifikace podle nejbližších sousedů SVM...20 Učení bez učitele Shluková analýza Hierarchické shlukování Nehierarchické shlukování...24 Identifikace témat Učení posilováním Map Reduce Aplikace metod na konkrétní problémy Agregace zpráv Rozpoznávání jazyka Rozpoznávání obsahu Rozpoznávání emocí Rozpoznávání zájmu o produktové vlastnosti Extrahování informací Analýza grafických dat Předpověď chování návštěvníka webu...37 Popis implementace Nástroje...39

6 5.1.1 Apache Mahout Weka Java-ML Mallet BoofCV Apache Commons Math Demonstrační aplikace Agregátor zpráv Hledání vizuálně podobných produktů Klasifikace zákazníků pomocí Naive Bayes Shrnutí výsledků Závěry a doporučení Seznam použité literatury Seznam obrázků a tabulek Přílohy...60

7 1 Úvod Pro začátek je vhodné uvést, co se skrývá pod pojmem strojové učení. Nápomocny k tomu budou následující dva citáty: Strojové učení je obor, který dává počítačům schopnost učit se, aniž by byly explicitně naprogramovány. [Arthur Samuel 1959][1] Strojové učení je programování počítačů pro optimalizaci výkonnostního kritéria za využití vzorku historických dat. [2] Strojové učení tvoří samostatný obor umělé inteligence, který dokáže odvodit nové informace z analyzovaných vstupních dat. Namísto vytváření počítačového programu s konkrétním postupem odvozování je tento nahrazen aplikací univerzálních metod strojového učení. Při aplikacích strojového učení je běžné, že implementátor nezná exaktní algoritmus převodu vstupních dat na požadovaný výstup a přesto mu tento fakt nebrání pro takový případ vytvořit fungující model. Nakonec jsou případy, kdy exaktní algoritmus ani neexistuje. O sledované veličině je pouze známo, že nenabývá zcela náhodných hodnot. Výsledný model pak pouze aproximuje výstupní hodnoty a jeho kvalita je posuzována rozdíly mezi aproximací a skutečností. Tyto vlastnosti umožňují aplikace strojového učení pro řešení různorodých problémů. Podle [3] je vhodné použít strojové učení v případech, kdy: 1. je třeba analyzovat více dat, než zvládne člověk 2. je možné definovat a změřit cíl 3. v dané oblasti existuje velká konkurence Nasbírat množství dat není v prostředí Internetu nic složitého, jen logování aktivit návštěvníků generuje objemy, jež není možné smysluplně analyzovat bez pomoci počítačů. Stejné prostředí současně umožňuje relativně snadno získat externí data k analýze bez nutnosti je všechna speciálně pro tento účel zaznamenávat vlastními prostředky. Daty vhodnými k analýze disponují firmy i v rámci svých počítačových systémů. Je zřejmé, že čím větší část firemních procesů probíhá elektronicky, tím větší množství dat vhodných pro počítačové zpracování má firma k dispozici. Podnikání, ve kterém jsou stěžejní procesy realizovány elektronicky zejména pomocí internetu, se označuje pojmem elektronické podnikání (e-business). Jsou-li těmito procesy řešeny obchodní vztahy, používá se pojem 1

8 e-komerce[4]1. Protože společnosti pohybující se v těchto oblastech mívají k dispozici záznam jakékoliv komunikace se svými potenciálními či skutečnými zákazníky v elektronické formě, mají tím rovněž data použitelná pro další zpracování a analýzu bez dodatečných nákladů na jejich pořízení. Tato data lze pak vyhodnocovat například za účelem odhadu budoucího chování zákazníka a posouzení jeho hodnoty pro dosažení firemních cílů. Definice cílů je nezbytná pro samotný proces učení. Pokud nebude znám cíl snahy, nelze ani stanovit, jaká data jakým způsobem má učící algoritmus zpracovávat. Cílem může být prakticky cokoliv, ale obvykle souvisí se zlepšením ekonomických ukazatelů (chci více objednávek!), předvídání nějaké události (kdy bude třeba objednat nové zásoby?) nebo zlepšení nabídky služeb (čeho zákazník vyznačující se tímto chováním chce pravděpodobně dosáhnout?). Konečně závěrečný bod představuje racionální pohled business sféry, kde konkurenční prostředí je motivací pro získání konkurenční výhody. Společnosti využívající strojové učení mají spíše předpoklady objevit skryté souvislosti v historických datech, automatizovat své firemní procesy nebo lépe cílit své nabídky a zvýšit úspěšnosti prodeje. 1 Současně je třeba podotknout, že vymezení těchto pojmů nevychází z žádného standardu a jsou běžně vzájemně zaměňovány či oblasti jejich působnosti zpřesňovány jinými pojmy nebo vykládány odlišně (např. e-komerce úzce jen pro B2C v [4] nebo mnohem širší definice a to nejen hierarchicky v [5]). Protože pro popis metod není striktní vymezení oblasti důležité a ty naopak nachází své uplatnění napříč celým elektronickým podnikáním, bude dále upřednostněn volnější výklad termínu e-komerce. 2

9 2 Cíl a metodika práce Cílem práce je představit strojové učení a nastínit jeho potenciál pro oblast e-komerce za pomoci popisu scénářů jeho nasazení. Pro tento účel bude nejdříve vysvětleno, co se pod pojmem strojové učení skrývá a kde se s ním lze běžně setkat. Dále budou vymezeny některé teoretické pojmy, které se v dalších kapitolách při výkladu použijí. Vždy při zavedení nového pojmu ho doplní i jeho anglický přepis pro snazší dohledání podrobnějších informací v cizojazyčné literatuře. Následovat bude popis vybraných metod a algoritmů v takové podobě, aby čtenář získal přehled o teoretických základech a při aplikaci strojového učení na jím řešené problémy věděl jak postupovat. Protože různých algoritmů se dnes používá řádově desítky, popsány budou jen ty nejznámější a jen v míře dostatečné pro intuitivní pochopení problematiky. Po seznámení s nezbytnou teorií přijdou na řadu scénáře popisující možné aplikace strojového učení ve vybrané oblasti e-komerce. Scénáře nemají za úkol pokrýt všechna možná potenciální využití. Jejich smyslem bude inspirovat k hledání dalších způsobů, jak zužitkovat nabyté znalosti. Některé scénáře budou dotaženy do podoby demonstrační aplikace s představením použitých nástrojů a návodným popisem, jak při takové implementaci postupovat. 3

10 3 Popis použitých metod Problémy řešitelné aplikací strojového učení se vyskytují prakticky ve všech oblastech lidské činnosti. Formalizací popisu problémů se obvykle dá dojít k nějakému obecnému prototypu řešení, a tím předejít znovuobjevování kola při každé aplikaci.[6] Příklady takového zobecnění jsou klasifikace nebo regrese. V této práci bude obecný prototyp nazýván typovou úlohou. Aplikace strojového učení na velké databáze za účelem objevení skrytých vlastností je jednou z metod oblasti nazývané dolování dat.[7] Jejím úkolem je z velkého množství vstupních dat získat informace v pro člověka pochopitelné formě často s využitím statistických metod. Důležitou vlastností strojového učení je schopnost odvodit i zcela nové informace a vztahy, které by při použití explicitně definovaného algoritmu zůstaly skryty, protože nebyly při jeho tvorbě zvažovány. Strojové učení není pouze metodou pro zpracování dat, ale je i součástí umělé inteligence. Inteligentní systémy se schopností učit se a přizpůsobovat se změnám prostředí, se kterými autor původně nepočítal, nepotřebují obsahovat scénáře na všechny možné situace, jež mohou při jejich činnosti nastat. Díky tomu zvládají nejen zpracovávat data a zprostředkovávat informace, ale v omezené míře i získávat znalosti a zkušenosti2. Nejde však o schopnosti srovnatelné s lidskými, protože tyto znalosti nejsou dostatečně abstraktní a nejsou převoditelné na odlišné situace. Významným okruhem nasazení strojového učení je i rozpoznávání vzorů (pattern recognition). Oblíbeným příkladem používaným autory literatury zabývající se strojovým učením jsou obrazová data, na kterých se strojově rozpoznávají konkrétní objekty na fotografiích (např. obličeje, auta atd.), párují odlišné záběry na stejný objekt nebo vyhledávají vzhledově podobné snímky. Některé známé aplikace strojového učení jsou uvedeny v Tabulka 1. Protože strojové učení lze aplikovat na široké spektrum problémů, při výběru vhodné metody je prvotním úkolem z popisu zadání určit typovou úlohu, na níž lze problém převést. Teprve poté přichází na řadu výběr vhodného algoritmu pro tvorbu modelu, který bude použit pro splnění úkolu. 2 Data slouží k popisování reality, informace přidávají datům význam a strukturu a informují o změnách v datech. Znalosti vedou k vykonání nějaké cílevědomé činnosti na základě dostupných informací.[4] 4

11 Aplikace Ranking příklad Tvorba index webových stránek pro vyhledávací služby. (Google) Collaborative filtering Nabídka položek, které by mohly uživatele zajímat, protože o ně projevil zájem jiný uživatel s podobným profilem. (Amazon, Netflix) Automatic translation Automatický překlad mezi různými jazyky. (Google Translate API) Classification problem Rozhodnutí, zda je nebo není spam. (Google Mail, Spam Assasin) Named entity recognition Extrakce metadat z dokumentu, například adresy z u. (Apple Mail) Speech recognition Přepis mluveného slova do písemné podoby. (YouTube) Similiarity learning Automatické seskupení zpráv z různých webových magazínů podle společného tématu. (Google News) Data mining Objevování skrytých vztahů z provozních systémů podniku (aplikace pro ETL). Pattern recognition Rozpoznání obličeje na fotografii. (Facebook) Tabulka 1: Příklady aplikací strojového učení (částečně podle [6]) Model je definován algoritmem a jeho parametry, jejichž hodnoty jsou při procesu učení optimalizovány. Pro každý typ úloh jsou k dispozici odlišné učící algoritmy lišící se výpočetní náročností, rychlostí zpracování dat, rychlostí a přesností vzniklého modelu. Dobře vytvořený model sestavený za účelem predikce nebo klasifikace by aplikací na nová data měl poskytovat obdobně přesné výsledky jako nad učícími historickými daty. Alternativně může být model vytvořen pro získávání znalostí z historických dat. Ilustrace 1: Aplikace strojového učení 5

12 Typové úlohy se obvykle rozdělují podle toho, zda jsou pro historická data k dispozici jejich správná ohodnocení, případně podle schopnosti plánovat akce a posuzovat jejich dopady na prostředí a pravděpodobnost dosažení stanoveného cíle na: učení s učitelem (supervised learning) regrese (regression) klasifikace (classification) hledání podobností (similarity learning) učení bez učitele (unsupervised learning) shluková analýza (clustering) učení posilováním (reinforcement learning) Často bývá problematická doména chápána jako samostatná oblast nasazení strojového učení a ve vývojových nástrojích pro ni existuje specifická podpora. I v těchto případech je ale každá oblast nasazení řešena za pomoci formulace jednoho či více typových úloh, přičemž v rámci typové úlohy mohou být použity odlišné učící algoritmy. Některé takové oblasti nasazení uvádí Tabulka 2. Tyto příklady vyplynou při tvorbě systému doporučení nabízejícího zákazníkovi seznam produktů, které jsou pro něj potenciálně zajímavé (recommendation systems). Vhodné produkty mohou být identifikovány podle podobnosti s těmi prohlíženými v minulosti (content-based filtering). Nebo mohou vycházet z profilu zákazníka a pro výběr vhodných nabídek využít podobnost s jiným profilem a předpokladu, že se těmto zákazníkům líbí obdobné věci (collaborative filtering). I takto jednoduše formulované zadání se tedy dotýká hned dvou oblastí nasazení strojového učení. Navíc se přibližuje oblasti třetí, kde by se seznam doporučení tvořil na základě historie nákupů (market basket analysis) a vycházelo z předpokladu, že když zákazníci v minulosti nakupovali tytéž položky v kombinaci s jinými, ten současný bude pravděpodobněji ochoten obdobné kombinace nakoupit také (cross selling). Analýzy poté nemusí sloužit k pouhému doporučení produktů ale i vytváření prodejních setů obsahujících často kombinované produkty za zvýhodněných podmínek nebo inteligentnímu aranžování produktů v marketingových materiálech. Všechny vyjmenované oblasti nasazení lze vnímat jako specifickou doménu. Přestože jde o typové úlohy hledání podobností a seskupování, existují specializované nástroje usnadňující na ně aplikaci strojového učení. 6

13 Oblast Příklad Content-based learning Zákazník si po sobě prohlédl tři červené míče: má smysl mu nabídnout zrychlenou volbu na další vzhledově či jinými parametry podobné produkty. Collaborative filtering Zákazník ohodnotil několik produktů. Pokud v databázi existuje jiný zákazník, se kterým se v hodnocení silně shoduje, mají pravděpodobně stejný vkus. Má smysl jim tedy křížově nabízet to, co se druhému líbilo. Market basket analysis Zákazník vhodil do košíku jím vybrané produkty. Z historických (frequent item set mining) objednávek vyplývá, že tyto produkty jsou velmi často kombinovány s jiným. Proto má smysl tento zákazníkovi dodatečně nabídnout. Tabulka 2: Příklady oblastí strojového učení dotýkající se problematiky doporučení zákazníkovi Pokud je identifikována typová úloha pro řešení zadaného problému, přichází na řadu výběr učícího algoritmu pro model z těch, které jsou pro ni dostupné. Obecně lze prohlásit, že pro žádnou neexistuje univerzálně nejlepší učící algoritmus použitelný pro jakýkoliv problém. Vždy je nutné z dostupných algoritmů vybírat s ohledem na konkrétní data, která mají být zpracovávána. Na druhou stranu i nevhodně zvolený algoritmus bude při správné aplikaci vracet použitelné výsledky, jen mohou nastat výkonnostní problémy nebo se špatná volba projeví na menší přesnosti modelu. Některé algoritmy umožňují stanovit parametry modelu analyticky pomocí přímých výpočtů a ne jen nepřímými metodami, kterými jsou parametry aproximovány pomocí iterativních výpočtů. Analytický způsob je vhodný pouze pro malé objemy dat a vyžaduje je mít všechna k dispozici před zahájením výpočtu, současně je více náchylný vůči nepřesnostem vzniklým zaokrouhlováním. V aproximačních úlohách se pro získání vektoru parametrů často používá metoda nejmenších čtverců3, přičemž pro strojové zpracování je upřednostňován postup založený na inverzní matici získané pomocí determinantu matice dat. Protože s počtem záznamů roste pravděpodobnost, že data budou tvořit singulární matici4, roste tím také pravděpodobnost, že nebude možné tento postup aplikovat. Ze všech těchto důvodů se v procesu učení více uplatňují iterativní metody.[8] 3 Aproximace parametrů při interpolaci polynomem θ=( X T X) 1 X T y 4 Pokud jsou některé vektory tvořící matici lineárně závislé, její determinant je nulový (singulární matice) a nelze tedy s jeho pomocí získat inverzní matici. 7

14 Typová úloha Atributy X Výstup Y Predikce Korelace Doporučená technika Numerické Numerické Stabilní/lineární Lineární regrese Kategorie Lineární regrese, Numerické neuronové sítě Numerické Numerické Nestabilní/silně nelineární Neuronové sítě Klasifikace Numerické Kategorie Stabilní/lineární Numerické Kategorie Nestabilní/silně nelineární SVM Kategorie Kategorie Logistická regrese SVM, Naive Bayes, jiné pravděpodobnostní grafické modely Tabulka 3: Příklady doporučených algoritmů podle typu úloh a parametrů[9] Data mají obvykle formát tabulky, skupiny položek nebo časových řad[10]. Atributy definující jednotlivé dokumenty mohou být typu[7]5: Numerické spojité Numerické diskrétní Kategorie (setříděné nebo nesetříděné) Dokumenty jsou pro zpracování převedeny do podoby vektoru, kdy dimenze vektoru odpovídá počtu atributů, které tvoří popis zjistitelných vlastností dokumentu. Při výběru atributů zahrnutých do popisu dokumentu proti sobě stojí snaha o co nejkompletnější popis na jedné straně a výpočetní nároky při použití velkého množství atributů na straně druhé. S jejich počtem rostou nároky na zpracování zejména procesu optimalizace modelu. Proto existují metody, jak z identifikovatelných atributů vybrat pouze ty, jež jsou při dalším zpracování přínosné (features selection). Zpracování dat může být provedeno v několika režimech[7]: dávkově: všechny prvky jsou použity najednou pro vypočtení parametrů hypotézy h iteračně: všechny prvky jsou použity pro iterativní optimalizaci parametrů hypotézy h inkrementálně: prvky jsou zpracovávány po jednom a každé zpracování ovlivňuje parametry hypotézy h 5 Datový typ Boolean může být podle potřeby reprezentován buď jako diskrétní hodnota nebo kategorie. 8

15 3.1 Učení s učitelem Učení s učitelem zahrnuje případy, kdy pro historická data jsou známy správné odpovědi, podle kterých se použitý algoritmus může učit. Správné odpovědi mohou být přiřazeny lidským expertem z daného oboru nebo pocházet ze zaznamenaných událostí, jež jsou s konkrétními daty spjaty. Například informací o provedení objednávky. Postup iterativního učení s učitelem se skládá z kroků: 1. získání historických dat a jejich případná transformace na vektory atributů (input vectors)6 2. rozdělení dat na trénovací (training set) a kontrolní množinu (validation set) 3. stanovení obecné hypotézy hθ (podle typu úlohy nazývá function estimator nebo classifier) nad vstupními atributy x (threshold) 4. fáze učení: optimalizace parametrů θi (weights) hypotézy nad testovacími daty a měřením přesnosti na kontrolní skupině (cross validation). 5. ověření přesnosti optimalizované hypotézy nad testovacími daty (test set) Z datového zdroje je vhodné načítat selektivně jen to, co má pro další zpracování svůj význam. Pokud nemají být zpracovány všechny záznamy v datech, výběr vzorků (sampling) musí být proveden tak, aby zachoval vlastnosti celé populace. Načtená data je poté vhodné transformovat. V závislosti na konkrétním případě mohou být například odstraněny neúplné záznamy, kde chybí hodnoty důležité pro následné zpracování. Údaje je často vhodné převést na čísla stejného řádu a stejné měřítko. Identifikované textové atributy je obvykle nutné převést na diskrétní číselné hodnoty. Například je-li atributem textové vyjádření s výčtem možností { žádné, malé, velké }, převedou se hodnoty atributu na prvky množiny {0,1,2}. Někdy se ukáže jako vhodné vytvořit nový atribut z kombinací více existujících a v následném procesu učení pracovat s ním. Příkladem může být převedení rozměrů balení expedovaného zboží na jeho objem nebo kategorizaci převzatou od přepravní služby. Data, která jsou k dispozici pro proces učení, se rozdělí do více částí. První vzorek (training set) slouží pro samotný proces učení, druhý (validation set) pak pro zjištění úspěšnosti testované hypotézy s učením získanými parametry. A nakonec pro ověření 6 Pro označení těchto vektorů se v anglické literatuře používají různé pojmy (input vector, pattern vector, feature vector, sample, example) a pro označení atributů představujících vlastnosti je situace obdobná (features, attributes, input variables, components).[7] 9

16 přesnosti získaného modelu se vyčleňuje ještě třetí od procesu učení zcela nezávislý vzorek dat (test set). Důležité je, aby rozdělení dat mezi vzorky bylo zcela náhodné. Pro měření přesnosti může být jako měřítko použita směrodatná odchylka (mean square error) nebo prostý počet chyb.[7] Při tvorbě modelu je třeba se vypořádat s potřebou určité generalizace a ohlídat riziko přeučení (overfitting). K němu dochází v případech, kdy se díky komplexnímu modelu (například kvůli polynomu vysokého řádu u funkce hypotézy nebo příliš atributy zahrnutými do modelu) nalezne řešení příliš přizpůsobené testovacímu vzorku a na jiných datech selhávající. Pro nalezení obecnějšího popisu dat je obvykle určitá míra chybovosti (bias) v testované hypotéze nezbytná[7] a vždy je vhodnější použít jednodušší model s ještě uspokojivými výsledky než komplikovaný model přespříliš přizpůsobený učícím datům. Nakonec i učící data nemusí být bezchybná a mohou obsahovat takzvaný šum (noise). Posoudit smysluplnost zobecnění (inductive bias) je jeden z hlavních úkolů tvůrce modelu. K přeučení může rovněž docházet při nepoměru složitosti modelu a množství učících dat. Pokud model nelze z odůvodnitelných důvodů zjednodušit, je třeba navýšit množství dat pro zreálnění výsledků. Pomoci může i takzvaná regularizace, která do procesu učení zanáší penalizaci za komplexnost modelu. Regularizace rovněž pomáhá řešit problém korelace vstupních atributů.[2] Opačný problém představuje podučení (underfitting), kdy je zvolený model příliš jednoduchý a nepřesnost aproximace měřená odchylkami od správných hodnot příliš vysoká. V těchto případech může být řešením zahrnout do modelu více atributů představujících nezávislé proměnné nebo hypotézu formulovat pomocí polynomu vyššího řádu. Př: Model hθ (x )=θ0 +θ 1 x 1 trpí podučením, proto 1. přidá se další atribut hθ (x )=θ0 +θ 1 x 1+ θ2 x 2 2. použije polynom vyššího řádu 3. nebo kombinace obojího hθ (x )=θ0 +θ 1 x 1+ θ2 x 21 hθ (x )=θ0 +θ 1 x 1+ θ2 x 22 Na konci procesu je model v podobě hypotézy h převádějící vstupní data na predikci (mapuje x na y ). Typickými úlohami strojového učení s učitelem jsou předpovědi spojité hodnoty nebo třídy. Protože jednotlivé modely sami o sobě nemusí dosahovat požadované přesnosti, někdy se používají techniky pro seskupení více modelů v jeden silnější (ensemble learning). Tento krok vychází z úvahy, že každý jeden samostatný model má své slabiny, které lze eliminovat 10

17 kombinací výsledků s modely jinými. Konečným výsledkem by pak měla být nižší průměrná chybovost. Jednotlivé techniky se liší způsobem kombinace dílčích výsledků, přičemž některé zvyšují problém přeučení a jiné ho naopak eliminují. Příkladem technik pro seskupení modelů jsou boosting, bagging, stacking atd.[11] Boosting kombinuje modely pomocí váženého průměru, čímž dosahuje menší chyby, ale také je náchylnější k přeučení. Váha jednotlivých modelů je pevně určena autorem modelu (například empiricky). Technika stacking rovněž kombinuje modely a přikládá jim odlišnou váhu, ale její rozložení je navíc samo předmětem procesu strojového učení. [11] Další z často používaných technik je bagging7. Tou je obcházen potenciální problém, kdy malá změna v datech dokáže výrazně ovlivnit závěry nedokonalých modelů. Jednotlivé dílčí modely se mohou vzájemně lišit v použitém algoritmu, ale především se učí nad různými vzorky dat generovanými náhodným výběrem s navracením ze všech učících dat. Dílčí metody pak o výsledku hlasují rovným hlasem. Takto zprůměrované výsledky pak dávají mnohem stabilnější výstup s menší standardní odchylkou než výsledky získané kterýmkoliv jedním z nich. Technika bagging tak patří mezi ty, jež pomáhají řešit problém přeučení. Na Ilustrace 2 je vyobrazen princip, na kterém technika bagging pracuje. Šedivé křivky představují dílčí modely, červený potom výsledný. Dílčí modely mohou být silně ovlivněny extrémními hodnotami, ale při hlasování jsou jejich závěry korigovány většinou hlasů. Ilustrace 2: Ukázka stabilizace výsledků technikou Bagging[12] 7 Někdy též nazývána jako bootstrap aggregation 11

18 3.1.1 Lineární regrese Regresní analýza se zabývá odhadem spojité hodnoty. Pokud jsou data analyzována na základě časové dimenze, jde o oblast nasazení označovanou pojmem předpovídání (forecasting). Někdy se také používá pro její pojmenování pojem analýza časových řad.[4] Existující pozorování zahrnují vzorky představované dvojicí (x,f(x)), kde x je vstupní hodnota a f(x) je výstup získaný aplikací nějaké funkce na vstupní hodnotu. Protože funkce f je neznámá, úkolem učení je najít funkci h, která ji aproximuje. Této aproximační funkci pak říkáme hypotéza.[13] Ilustrace 3: Model regresní analýzy[14] Při regresní analýze jsou k dispozici historická data (learning set) ve formě hodnot atributů a k nim vztažené výstupní hodnoty. Hodnoty atributů mohou mít na vstupu různou podobu, pro další zpracování ale musí být převedeny na čísla. Pomocí zvolených atributů se sestaví hypotéza, což je aproximační funkce vyjádřená lineární kombinací vektorů. Pokud je pro hypotézu použit polynom vyššího řádu, opět musí být rozepsaný na lineární kombinaci vektorů. Při výběru atributů a hypotézy je vhodné usilovat o co nejjednodušší vyjádření, které ještě splňuje požadavky kladené na přesnost aproximace (tzv. Occamova břitva). Větší množství atributů nevede automaticky k lepším výsledkům, současně má negativní vliv na výpočetní náročnost procesu učení. Zvyšuje také riziko přeučení (overfitting), kdy hypotéza příliš věrně popisuje trénovací data[14]. Například u dat vyjadřujících přímou úměrnost zatíženou šumem s rozptylem podle normálního rozdělení není vhodné použít polynom vyššího řádu, ale upřednostnit prostou lineární funkci. Přestože polynom by mohl na testovacích datech dosahovat vyšší přesnosti aproximace. Naopak nedostatečné množství atributů má za následek větší nepřesnosti v predikci. Při stanovení optimálního počtu je vhodné eliminovat vzájemné závislosti mezi atributy[15]. 12

19 Zvolené atributy představují nezávislé proměnné a v matematickém vyjádření funkce hypotézy jsou obvykle značeny jako X. Naměřené nebo předpovídané hodnoty jsou potom závislé proměnné značené Y. Nejjednodušší formu zápisu hypotézy představuje funkce přímky hθ (x )=θ0 +θ 1 x, tedy funkce pracující s jediným rozměrem představovaným atributem X. Při více atributech a pouze jedné vysvětlované hodnotě má hypotéza lineární regrese podobu hθ (x )=θ0 +θ 1 x 1+ θ2 x Pro sestavení je znám vektor atributů x. Atributy je nutné převést na podobný rozsah (feature scaling), tedy zabránit aby například jeden byl v řádu desetitisíců a jiný jen v řádu jednotek. Převedení se provede prostým vydělením (případně vynásobením) skutečných hodnot atributu, přičemž jako dělitele lze použít maximální hodnotu, které atribut nabývá. Operace se provede identicky nad stejným atributem u všech dat. Z výkonnostních důvodů je vhodné před touto operací provést ještě normalizaci hodnot (mean normalization) spočívající v odečtení průměrné hodnoty atributu od jeho skutečné hodnoty. Tím je zajištěno rozptýlení pracovních hodnot atributu kolem čísla nula. Vhodný výsledný rozsah závisí vždy na konkrétních datech, ale typicky jím může být například interval < 1, 1>.[14] Řešeným problémem je nalézt takové hodnoty θ, aby model představovaný hypotézou dával při predikci co nejlepší výsledky. Přesnost je odvozena od zvolené metriky, kterou je obvykle metoda nejmenších čtverců počítající rozdíly mezi predikovanými a skutečnými hodnotami. Optimální hodnoty lze vypočítat řešením rovnice: θ=( X T X) 1 X T y. Asymptotická složitost takového výpočtu je ovšem O(n3 ) a je tedy při velkém objemu dat nepoužitelný[14]. Proto se pro optimalizaci hodnot atributů θ používají spíše iterativní metody, například algoritmus Gradient Descent nebo Newtonova metoda. Gradient Descent Newtonova metoda Směřuje vždy tam, kde je největší změna. Směřuje vždy přímo k minimu. Používá první derivace kvadrátu odchylek. Používá první i druhé derivace kvadrátu odchylek => výpočetně náročnější. Výkonná, pokud je počáteční bod vzdálen Výkonná, pokud je počáteční bod blízko od hledaného minima. minimu. Tabulka 4: Srovnání iterativních metod[8] 13

20 Gradient descent8 V každém kroku se hledají takové hodnoty, které vedou k největšímu zlepšení predikce. Slabinou algoritmu je nalezení takzvaného lokálního minima. Tedy hodnot, které sice dávají lepší výsledky než nejbližší alternativy, ale bez záruky, že někde jinde neexistuje lepší řešení. Použití algoritmu rovněž stěžuje nutnost zvolit velikost kroku α, který představuje rychlost učení (learning rate). Při malé α je algoritmus pomalý a k nalezení minima potřebuje provést více iterací. Naopak při velké hodnotě α hrozí riziko přestřelení, kdy algoritmus nemusí konvergovat k minimu. Velikostí kroku α se pak opakovaně pro každý atribut násobí jeho parciální derivace hodnotící funkce J (cost function) a o výsledek mění testovaná hodnota atributu. Iterace se provádí pro každý atribut do té doby, dokud výsledky hodnotící funkce J konvergují k minimu. Dosažení lokálního minima se pozná tak, že parciální derivace funkce J podle všech atributů se rovnají nule. Hodnotící funkce J pro množinu dat s prvky 1 až m a atributy θ0 až θn má podobu: m J (θ0, θ1,..., θn )= 1 (hθ ( x (i) ) y (i))2 2m i=1 Hodnotící funkce vyjadřuje sumu kvadrátu všech odchylek (residuals, fitting errors) v predikci hypotézou h0 od správných hodnot. Pro zjednodušení práce s čísly menších řádů se v tomto případě vše ještě zprůměruje a vydělí dvěma. Protože cílem je minimalizace hodnot, je algoritmem gradient descent opakovaně prováděna operace: opakovat dokud konverguje { simultánně pro j od 0 do n { θ j :=θ j α J (θ0, θ1,..., θn ) θj } } Algoritmus konverguje, dokud se zmenšuje odchylka vypočtená pomocí hodnotící funkce J(θ). Simultánností se rozumí, že v rámci jedné iterace jsou v hodnotící funkci J zachovány hodnoty z předchozí iterace neovlivněné právě počítanými změnami: změna θ0 pak ve stejné iteraci neovlivní výpočet hodnoty θ1. Hodnotící funkce může navíc zahrnovat regularizační parametr, který má za cíl vyhladit její průběh a zabránit tak přeučení. Jednou z možných podob podle [14] je: 8 Kapitola zpracována podle [14] 14

21 m J (θ0, θ1,..., θn )= n 1 (h ( x (i) ) y (i))2 + λ θ 2j 2m i=1 θ j=1 Velikost regularizačního parametru λ ovlivňuje míru vyhlazení a při velké hodnotě může vést až k opačnému problému, tedy podučení. V algoritmu gradient descent se regularizační parametr nepřidává při výpočtu parametru θ0, ale až pro další hodnoty Klasifikace Při klasifikaci jsou k dispozici učící ohodnocená data. Cílem učení je najít pravidlo, podle kterého jsou prvky rozřazeny. Výstupem procesu je vždy nějaká diskrétní hodnota. Může to být 1 nebo 0 ve významu ANO a NE, stejně tak to mohou být hodnoty z libovolné diskrétní množiny (např. { červená, modrá, bílá }). Podmnožinou klasifikace je pravděpodobnostní klasifikace, kdy na výstupu není definitivní přiřazení jedné třídě, ale jsou udány pravděpodobnosti pro všechny třídy. Proces klasifikace má dvě fáze: 1. fázi učení nad vzorkem, který má přiřazeny správné třídy a vytvoření modelu 2. klasifikace vstupních dat modelem Klasifikační test může vycházet z jediné hypotézy postavené nad pozitivními příklady, která vše ostatní považuje za příklady negativní. V některých případech mají obě skupiny svou rozpoznatelnou strukturu a je potom žádoucí formulovat pro negativní příklady vlastní hypotézu. Výhodou takového přístupu je, že pokud klasifikovaný prvek nevyhovuje ani jedné třídě, může být pro obě zamítnut.[2] Existuje více typů klasifikace: unární klasifikace (one-class classification) binární klasifikace (binary classification) klasifikace do více oddělených tříd (multi-class classification) štítkování (multi-label classification) Při binární klasifikaci se klasifikátor rozhoduje mezi dvěma třídami. Učící data jsou ohodnocením rozdělena na pozitivní a negativní příklady. Unární klasifikace se od binární odlišuje tím, že učící data zahrnují pouze data jedné třídy. Klasifikátor má za úkol v nových datech pouze rozhodnout, zda jsou nebo nejsou dané třídy. Rozhodnutí o náležitosti k třídě je pak redukováno na test, zda vstupní hodnoty dávají na výstup modelu jedničku nebo nulu. Taková klasifikace nachází své využití například v oblasti detekci anomálií. 15

22 Při složitější klasifikaci mezi více tříd jsou učící data hodnocením rozdělena mezi všechny tyto třídy. Rozlišují se dva případy: zda jde o rozdělení dat mezi nezávislé třídy nebo štítkování. V prvním případě je každý prvek označen právě jednou třídou, ve druhém jich může mít více. Při trénování rozřazení prvků do nezávislých množin se používají různé strategie: nejdříve získat binární klasifikátory a následně zkombinovat jejich výsledky klasifikaci provést najednou na základě aposteriorní9 pravděpodobnosti Pro kombinaci binárních klasifikátorů je jednou z nejjednodušších metod metoda One-vs-All[16]. Pro každou třídu se při ní učí samostatný binární klasifikátor tak, že prvky všech ostatních tříd se považují za druhou spojenou třídu. Při rozhodování o třídě nového prvku se potom zvolí ta, jejíž klasifikátor udává největší pravděpodobnost. Scénář Klasifikace Je příchozí spam? Úloha binární Je konkrétní komentář u produktu pozitivní, negativní více tříd analýza sentimentu nebo neutrální? Vytipovat podezřelou objednávku. unární detekce anomálií Tabulka 5: Příklady klasifikačních úloh V Tabulka 5 se pro některé scénáře vyskytují ještě upřesňující názvy úlohy, jakými jsou například analýza sentimentu nebo detekce anomálií. Ty tvoří v rámci klasifikační metody specifické úlohy. Analýzu sentimentu lze řešit běžnými klasifikačními algoritmy (naivní bayesovský klasifikátor atd.), ale protože předmětem analýzy jsou písemně vyjádřené lidské pocity, výsledky analýzy jsou obtížně uchopitelné. Sentiment a především způsob jeho vyjádření i vnímání je silně subjektivní pro každého lidského jedince. Při hodnocení nepanuje jednoznačná shoda ani pokud ho provádí skupina lidí[17], natož má-li se jednat o vyhodnocení strojové. Speciálně při analýze sentimentu se jako větší problémy jeví mnohovýznamnost větných spojení, neznalost kontextu nebo problém vztažení vyjádřeného sentimentu ke správnému předmětu. Některé metody založené čistě na slovníku negativních a pozitivních slov nebo slovních spojení dávají jednotné hodnocení celému textu, ačkoliv v něm může 9 Apriorní pravděpodobnost p(θ) je pravděpodobnost pro parametry, které jsou známy předem. Aposteriorní pravděpodobnost p(θ x) pro parametry odvozené až z dat. 16

23 figurovat více potenciálních předmětů analýzy a vyjádřený sentiment bude odvozen pouze od jednoho z nich. Tyto problémy je potřeba zohlednit a pracovat s nimi. Například analýza sentimentu zaměřená na firemní značku bude dávat pravděpodobně přesnější výsledky na data pocházející ze zdroje zaměřeného čistě na tuto značku (např. Facebook profil) než napříč obecnými zdroji (např. obsah ze služby Twitter fulltextem dohledaný podle názvu značky). Přesnost odhadu také ovlivní délka analyzovaného textu, proto přesnější výsledky bude mít analýza zápisků na blogu nebo recenzí v magazínech než krátkých tweetů. Stejně tak je třeba zohlednit časovou nestálost sentimentu a v případě hodnocení v delším časovém úseku pracovat s časovou řadou a nikoliv sumarizovanými údaji. Jinou specifickou úlohou je detekce anomálií v datech. Anomálie je něco, co se vymyká běžným hodnotám, proto klasifikátor nelze na žádných historických datech naučit co je a co není anomálie. Příklad z Tabulka 5 se zaměřuje na hledání z podvodu podezřelých objednávek: pokud objednávající na internetovém obchodě nevyplnil na sebe platný telefonní kontakt, zaplatil kartou předem a chce zboží doručit s adresou převzetí mimo své bydliště (např. benzínová pumpa), kombinace všech těchto charakteristik se silně vymyká běžnému průměru a měla by být klasifikátorem označena za anomální. Pro klasifikaci obecně lze použít více algoritmů s odlišnými vlastnostmi: Naivní bayesovský klasifikátor (naive bayes) Bayesovské sítě (Bayesian network) Metoda nejbližších sousedů (nearest neighbour) Logistická regrese (logistic regression) Rozhodovací stromy (decision tree) SVM (support vector machine) Neuronové sítě (Neural network) a mnohé další Naivní bayesovský model10 Při použití tohoto algoritmu naive bayes se předpokládá, že jednotlivé atributy popisující dokument jsou na sobě zcela nezávislé - proto je v názvu slovo naivní. Takové zjednodušení je nezbytné především z výkonnostních důvodů, aby nebylo nutné zahrnout pravděpodobnosti pro všechny kombinace atributů (tedy pro n binárních atributů 2n hodnot 10 Kapitola zpracována podle [10] 17

24 pravděpodobností). Pro rozhodnutí, která hypotéza je nejpravděpodobnější, slouží bayesovský vztah: p(hypotéza pozorování )= p( pozorování hypotéza) p (hypotéza) p( pozorování ) S jeho pomocí se postupně vypočítá pravděpodobnost všech hypotéz a vybere ta, která dopadla nejlépe. Jednotlivé hodnoty pravděpodobnosti potřebné pro dosazení jsou získány z analyzovaných dat. Protože se hledá pouze nejlepší hypotéza a není potřeba znát přesné výsledky, lze výpočet zjednodušit ignorováním jmenovatele ve zlomku, který je pro všechny případy stejný. Algoritmus nepotřebuje prohledávat prostor hypotéz, ale vystačí s výpočtem příslušné pravděpodobnosti na základě četnosti výskytů hodnot jednotlivých atributů a hodí se proto pro velké datové soubory. Přestože předpoklad podmíněné nezávislosti atributů bývá jen málokdy splněn, vykazuje naivní bayesovský klasifikátor dobré výsledky ve smyslu úspěšnosti klasifikace Rozhodovací stromy Rozhodovací strom je hierarchická datová struktura implementující strategii rozděl a panuj.[2] Model rozhodovacího stromu je tvořen uzly a hranami, které rozdělují data na menší podmnožiny. Dělení probíhá výběrem pomocí takového atributu, aby v každé vzniklé podmnožině převládala jedna třída. Obecný algoritmus dělení je podle [10]: 1. zvolit atribut jako kořen dílčího stromu 2. rozdělit data v tomto uzlu na podmnožiny podle hodnot zvoleného atributu a přidat uzel pro každou podmnožinu 3. existuje-li uzel, pro který nepatří všechna data do stejné třídy, opakovat pro něj celý postup, jinak zpracování ukončit Algoritmus rozhodovacích stromů má podle [3] několik výhod: rychleji se učí není potřeba upravovat vstupní data model je pochopitelný pro člověka a lze převést na soubor srozumitelných pravidel 18

25 Ilustrace 4: Ukázka klasifikace rozhodovacím stromem[2] Logistická regrese11 Logistická regrese vychází z lineární regrese, tedy zahrnuje formulaci hypotézy h za pomoci atributů představujících vektor nezávislé proměnné x a vektoru jejich vah θ. Odlišnost spočívá v použití výstupu modelu pro binární klasifikaci. Pro tento účel slouží sigmoida pro vpasování funkce hypotézy do intervalu <0;1>, potom se pro binární klasifikaci použije výsledku bližší hodnota. Sigmoida současně zajistí konvexní průběh hodnotící funkce a umožní tak efektivně využívat algoritmus gradient descent pro získání optimálních atributů bez hrozby nalezení lokálního minima. hypotéza: hθ ( x )=g(θ T x) při sigmoida: g( z )= 1 1+ e z m 1 (i) (i) hodnotící funkce: J (θ)= Cost (hθ (x ), y ) (nebo s regularizací) m i=1 při Cost (hθ ( x), y)= { log(hθ ( x)) pro y=1 log (1 hθ ( x )) pro y=0 11 Kapitola zpracována podle [14] 19 }

26 Klasifikace podle nejbližších sousedů Binární klasifikační algoritmus nearest neighbour spočívá v přiřazení klasifikovaného vzorku dat stejné třídě, jakou má přiřazen jemu nejbližší vzorek v učících datech. Algoritmus lze modifikovat tak, aby při rozhodování zohlednil více než jeden nejbližší vzorek. Potom je třída přiřazena podle nejčetnějšího zastoupení v porovnávané skupině. Při volbě množství vztažených vzorků je vhodné dodržet lichý počet tak, aby ve skupině vždy jedna třída převažovala12. Doprovodná Ilustrace 5 zobrazuje dva klasifikátory: vlevo při použití jednoho nejbližšího vzorku a vpravo při zohlednění sedmi nejbližších vzorků. Ze znázornění je zřejmé, že více vzorků vyhlazuje průběh funkce a snižuje riziko přeučení a vliv náhodného šumu. S rostoucím počtem vztažených vzorků ovšem hrozí, že ostrost poklesne pod nežádoucí mez a současně rostou i výpočetní a paměťové nároky aplikace algoritmu[6], který obecně patří mezi ty s velkými nároky na paměť[7]. Ilustrace 5: Ukázka aplikace algoritmu Nearest Neighbour[6] SVM13 Technika SVM (Support vector machine) je zvláště vhodná pro případy, kdy jsou data popsána velkým množstvím atributů. Cílem učící fáze je vytvořit model založený na tréninkových datech, který uspokojivě předpovídá výstupní hodnoty v testovacích datech. Princip spočívá v nalezení nadroviny, kde jsou učící data lineární separací rozdělena tak, aby prázdné okraje mezi krajními pozorováními byly co největší.[19] Technika umožňuje použít klasifikaci na data, kde vztah mezi třídou a atributy je nelineární pomocí mapování vstupní hodnoty do vyšší dimenze, ve které jsou již lineárně separovatelné (kernel trick). 12 Pohybujeme se nadále v binární klasifikaci, čímž je tento předpoklad zajištěn. Strategie klasifikace mezi více tříd za pomoci binárních klasifikátorů byla popsána v úvodu kapitoly Kapitola zpracována podle [18] 20

27 Doporučený postup aplikace algoritmu podle [18]: 1. transformovat data do formátu nástroje, který bude použit 2. škálovat data 3. vybrat kernel funkci, jejíž obecný tvar je T K ( x i, x j )=Φ ( x i )Φ ( x j ) kde Φ je mapovací funkce do vyšší dimenze 4. pomocí křížové validace (cross validation) najít nejlepší parametry kernel funkce. 5. nalezené parametry použít pro učení nad všemi testovacími daty 6. otestovat kvalitu modelu Vstupní data musí mít podobu vektoru reálných čísel. Pokud čísla představují kategorický údaj, bývá někdy doporučováno namísto řady celých čísel představujících jednotlivé kategorie použít více čísel pro binární reprezentaci kategorií (například {červená,zelená,modrá} nekódovat jako {1,2,3} ale {(0,0,1), (0,1,0), (1,0,0)}). Škálováním vstupních dat do podobného rozsahu se zabrání tomu, aby některé atributy dominovaly nad jinými a způsobovaly numerické problémy. Doporučený rozsah je například v intervalu [-1,1] nebo [0,1]. Škálování musí být pro stejný atribut jednotné napříč učícími i testovacími daty. Při volbě kernel funkce se jako základní tvary doporučují: lineární K (x i, x j )=x it x j tedy bez mapování do vyšší dimenze, je vhodná například pro velké množství atributů polynomická RBF sigmoida T d K (x i, x j )=(γ x i x j +r ) pro γ >0 2 K (x, y )=e γ x y pro γ >0 vhodná pro většinu případů K (x, y )=tanh( γ x Ti x j +r ) Uváděné γ, r a d jsou parametry kernel funkce. Kromě nich se při optimalizaci hledá ještě parametr C představující trestné ohodnocení za chybně klasifikovaný prvek. Počet parametrů kernel funkce ovlivňuje výkonnostní nároky procesu optimalizace, proto třeba užití RBF namísto polynomické funkce kernelu představuje z tohoto pohledu výhodu, protože hledá pouze dvojice (C,γ). Při optimalizaci je třeba se vyvarovat problému přeučení, který je vyobrazen na Ilustrace 6. 21

28 Ilustrace 6: Problém přeučení při SVM klasifikaci[18] 3.2 Učení bez učitele Zatímco při učení s učitelem byly k dispozici ohodnocená učící data, pro učení bez učitele nic takového neexistuje a proces si musí vystačit jen s vlastní analýzou vstupních dat za účelem hledání datových vzorů a struktur. Nejběžnější úlohou typickou pro učení bez učitele je seskupování (clustering) někdy nazývaný též jako shlukování nebo shluková analýza. Kromě ní existují i další úlohy (například blind signal separation), ale ty nebudou v dalším textu využity a jejich popisu nebude věnován další prostor. 22

29 3.2.1 Shluková analýza Shlukování (seskupování) je rozklad množiny prvků na základě jejich vzájemné podobnosti na jednotlivé komponenty shluky. Shlukování se podobá klasifikaci v tom, že na výstupu jsou nějaké komponenty, které se zde nazývají shluky a u klasifikace třídy. Rozdíl spočívá v existenci učících ohodnocených dat u klasifikace a jejich neexistenci u shlukování. Klasifikace tedy spadá pod strojové učení s učitelem, zatímco shlukování je učením bez učitele. Model vysvětlující data může být založen na statistickém nebo deterministickém přístupu. Statistický přístup vychází z analýzy hustoty dat, deterministický hledá jiné míry podobnosti[20]. Shlukováním lze získat shluky hierarchické nebo nehierarchické. Nehierarchické shluky jsou od sebe zcela odděleny a neexistují mezi nimi žádné průniky. Hierarchické shluky tvoří strukturu, kdy některé shluky jsou podmnožinou jiných. Tematickým příkladem hierarchického shlukování by mohla být analýza produktů, jejímž výstupem je stromová skupina kategorií využitelná pro vygenerování rozbalovací navigace na webové stránce Hierarchické shlukování Při hierarchickém shlukování proběhne sekvence vnořených rozkladů, která má na jedné straně jednoprvkové shluky a na druhé jeden shluk obsahující všechny prvky. Postup shlukování může proběhnout v obou směrech a shlukování se pak nazývá buď aglomerativní nebo divizivní. V každém kroku aglomerativního shlukování se vyberou ty dva shluky, které jsou si nejpodobnější s ohledem na cíle aplikace a zvolenou metriku. Tyto dva shluky jsou sloučeny, čímž vzniká nový shluk.[21] Metrikou pro porovnání podobnosti shluků může být euklidovská vzdálenost ve vektorovém prostoru mezi všemi páry, které lze nakombinovat z center shluků, nebo metrika může využívat hustotu pravděpodobnosti.[7] Postup divizivního shlukování spočívá v postupném rozdělování každého z existujících shluků na dva nové tak, aby výsledný rozklad tohoto shluku byl optimální vzhledem k nějakému kritériu. Nalezení absolutně optimálního rozkladu množiny objektů na dvě podmnožiny však vyžaduje prozkoumání 2(n 1) 1 možností. Tento postup je prakticky proveditelný jen pro malý počet objektů.[21] 23

30 Nehierarchické shlukování U nehierarchického shlukování (někdy též nazývaného rozdělující[20]) je třeba vyřešit problém optimálního počtu shluků. Některé algoritmy umí počet shluků přizpůsobovat průběžným hodnotám, jiné pracují s konstantním počtem. Počet shluků výrazně ovlivňuje kvalitu výstupu, stanovení příliš malého nebo naopak příliš velkého počtu může zcela znehodnotit výsledky. Pro stanovení optimálního počtu existuje více metod[21]. Typickými algoritmy nehierarchického shlukování jsou K-Means a EM algoritmus (expectation-maximization algorithm). K-Means je založený na vzdálenosti bodů od centra shluku a EM algoritmus využívá hustotu rozložení pravděpodobnosti. EM algoritmus dává obvykle lepší výsledky (příklad na Ilustrace 7), ale je výpočetně náročnější. Different cluster analysis results on "mouse" data set: Original Data k-means Clustering EM Clustering Ilustrace 7: Shlukování algoritmy K-Means a EM[22] K-Means Algoritmus pro seskupování pomocí hledání podobností mezi dokumenty. Při aplikaci algoritmu se postupuje tak, že v prvním kroku se náhodně vybere tolik bodů, kolik chceme získat skupin a tyto body jsou prohlášeny za středy (centra) skupin. V druhém kroku jsou všechny dosud nepřiřazené body zařazeny do skupiny, k jejímuž středu se nachází nejblíže. V dalších krocích se z bodů tvořících skupiny vždy přepočtou nová centra skupin a body jsou přeřazeny tam, ke kterému centru se nachází nejblíže. Centra skupin skrze k nim vztažené oblasti dělí prostor do Voroného diagramu. Postup se opakuje do té doby, dokud dochází k přeřazování bodů. Pro způsob měření vzdálenosti mezi centrem a body lze využít různé způsoby: nejen euklidovskou, ale například i manhatanskou (pravoúhlou) či jinou metrikou. Algoritmus 24

31 K-Means je velmi citlivý na počáteční umístění center a jejich nevhodná volba může způsobit špatné výsledky zejména díky riziku nalezení lokálního minima[6][22]. Shlukování pomocí EM algoritmu EM algoritmus reprezentuje jednotlivé shluky jako hustotu normálního rozložení N (µ, Σ) definovaného střední hodnotou µ, která je dána souřadnicemi shluku, a kovariační maticí Σ odvozené ze souřadnic známých bodů (pozorování). Při aplikaci EM algoritmu probíhají iterace s těmito kroky: 1. Expectation, ve kterém se počítají pravděpodobnosti příslušnosti bodů do shluků pro všechny kombinace bodů a shluků 2. Maximalization, ve kterém se metodou maximální věrohodnosti počítají nová centra shluků a kovariační matice pro další krok Protože maximalizace je založena na derivaci P =0, používají se logaritmované µ pravděpodobnosti (log likehood). Průběh jejich funkce je rostoucí a lze tedy snadněji pomocí derivací hledat jejich maximum Identifikace témat Identifikace témat (topic modeling) se obvykle využívá při zpracování přirozeného jazyka, kde je cílem ze souboru vstupních dokumentů extrahovat témata, kterými se dokumenty zabývají. Jde o specifický způsob seskupování. Předem se nevyžaduje seznam témat ani ohodnocený testovací vzorek, vše se odvozuje ze statistiky výskytů slov v dokumentech. Témata jsou získávána v abstraktní formě jako unikátní kombinace slov a seznamu dokumentů, které jsou pro ně relevantní. Postup analýzy textů: 1. Nashromáždit nebo identifikovat text obsahující dokumenty 2. Připravit dokumenty pro zpracování analyzerem (stemming/lemmatisation, vyřadit stop slova, tokenizace) 3. Zvolit počet hledaných témat 4. Sestavit reprezentaci dokumentů ve vektorovém prostoru 5. Identifikovat podobné dokumenty, například na základě euklidovské vzdálenosti vrcholů vektorů témat nebo jimi svíraného úhlu 25

32 Jedním ze způsobů, jak reprezentovat dokument je vektor relevantnosti slov. Relevance může být vyjádřena binárně, početně (TF) nebo váhově (TF-IDF). Protože takto vyjádřený vektor bude mít velký počet dimenzí (různých slov), je nutné ho redukovat. Redukce probíhá buď výběrem příznaků (feature selection) nebo extrakcí příznaků (feature extraction). V prvním případě se vyřazují takové příznaky, které nejsou významné pro plánovanou aplikaci. Ve druhém jsou skupiny příznaků nahrazovány novými příznaky. V případě vektoru slov mohou například nové příznaky představovat základní tvary (lemmatisation) nebo kmen slova (stemming).[23] Reprezentace dokumentu pomocí vektoru slov i přes popsané techniky trpí obvykle problémem velkého množství dimenzí, které znesnadňují další zpracování. Proto existují i jiné techniky, jež místo s vektorem slov pracují spíše s vektorem tématických oblastí a dokument je charakterizován vztahem vůči těmto předem naučeným tématům (metody nebo témata jsou Latent Semantic Analyses, v průběhu procesu Propabilistics Latent Semantic Analyses) učení kompletně odvozena (metoda Latent Dirichlet Allocation, dále jako LDA).[23] Zde je záhodno vysvětlit význam použitého termínu téma. Téma je vždy definováno seznamem slov a hodnot, nakolik jsou konkrétní slova pro toto téma specifická. Zda je takto definované téma nějak jednoznačně pojmenovatelné není pro proces učení vůbec relevantní. Proto tvrzením metoda LDA sama odvozuje témata není myšleno, že by dokument byl touto technikou přiřazen například do třídy sport nebo politika. A ačkoliv u ostatních technik pracující s předpřipravenými tématy budou tyto pravděpodobně i autory pro jejich potřeby pojmenovány, do procesu učení název nijak nevstupuje a zpracovávány jsou pouze slova definující téma. Množství hledaných témat má zásadní vliv na použitelnost výstupu. Při volbě této hodnoty se bere v potaz především účel aplikace. Výstupem učení jsou vektory dokumentů, kde řádky představují slova a hodnoty na řádkách relevance těchto slov pro daný dokument. Dále pak vektor témat, kde jsou obdobným způsobem vyjádřeny vazby slov na témata. Při analýze podobnosti mezi různými dokumenty stačí porovnat jejich vektorové popisy. Dokumenty s podobným vektorem mají pak podobný obsah.[24] Nejpoužívanější technika LDA považuje vstupní data za pozorování generativního pravděpodobnostního procesu, který zahrnuje skryté proměnné. U dokumentů jsou skrytou proměnnou struktura pro ně relevantních témat.[25] Každé slovo má tedy různě silnou 26

33 relevanci k více dokumentům a totéž platí pro jeho vztah k tématům. Proto i každý dokument má různě silnou relevanci k více tématům. Relevance slov k jednotlivým tématům jsou určeny pomocí vydělení počtu slov mezi všechna témata. Následně je použit odvozovací algoritmus, který hledá skupiny spolu souvisejících slov. Přitom usiluje o co největší řídkost témat pro jednotlivé dokumenty a penalizuje případy, kdy má dokument příliš mnoho silných vazeb na různá témata. Na základě toho upravuje definice vztahů mezi slovy, čímž postupně dochází ke vzniku uskupení slov vzájemně více provázanými než se slovy mimo toto uskupení.[25] 3.3 Učení posilováním Třetí skupina algoritmů se zabývá tzv. učením posilováním (reinforcement learning), v češtině někdy též nazývaném zpětnovazebním učením. Algoritmy usilují o dosažení nějakého cíle a vytváří sekvenci akcí, kterými se k cíli snaží dostat. Každá jedna samotná akce není sama o sobě důležitá, důležitá je stanovená politika (policy) a zda akce do této politiky zapadá nebo ne. Algoritmus posuzuje jednotlivé politiky a umí ohodnotit jejich přínos pro dosažení stanoveného cíle. Pokud má přístup k historii úspěšných sekvencí, je schopen se z ní poučit a zohlednit je při návrhu nových politik. Učení posilováním je vhodné především do prostředí, kde existuje komponenta chovající se jako agent, který je sám schopen provádět nějaké akce a posuzovat jejich dopady. Ačkoliv existují i scénáře, kdy aplikace učení posilováním v oblasti e-komerce bude představovat přínos, software používaný v praktické části tyto algoritmy nepoužívá a praktická část práce se jimi nezabývá. Proto nebude toto téma v práci podrobněji popisováno. 3.4 Map Reduce Jde o techniku spočívající v rozdělení zpracování dat do dvou odlišných úloh. První se nazývá Map a provádí konverzi vstupních dat do podoby n-tic [klíč,hodnoty], které jsou výstupem mapovací funkce. Obsah n-tice je zvolen tak, aby zohledňoval zpracováním sledované cíle. Druhou úlohou je Reduce a jejím úkolem je převzít výstup z více Map úloh a zredukovat je do jediné sady n-tic, opět za pomoci nějaké stanovené funkce. Teprve nad redukovanými daty jsou nakonec prováděny požadované operace.[9] Algoritmus MapReduce lze shrnout slovy: seznam hodnot je transformován na jiný seznam hodnot, který 27

34 je posléze redukován na hodnotu jedinou. Tento princip se často používá při řešení úloh strojového učení. Na Ilustrace 8 je vyobrazen příklad zpracování došlých objednávek. Nejdříve jsou vstupní data mapována do požadované n-tice a ty jsou nakonec převedeny na výstupní hodnoty. Protože řešeným požadavkem je získat celkový obrat, pro fázi redukce je použita funkce součtu (SUM). Současně diagram zachycuje možnost aplikovat mapování na víceprvkovou množinu vstupních dat. Ilustrace 8: Příklad získání obratu pro jednotlivá města metodou MapReduce Z pohledu strojového učení je metoda MapReduce zajímavá i jako řešení potenciálních výkonnostních problémů, které mohou nastat při aplikacích na reálná data. Protože množství úloh strojového učení lze přeformulovat do úlohy pro MapReduce[26], může pak zpracování probíhat ve výpočetním clusteru. Škálovatelnosti v clusteru je dosaženo rozdělením zdrojových dat mezi více uzlů, které nad nimi na vyžádání provádí mapovací úlohy a vrací jejich výstup. V clusteru pak existuje jeden nebo více uzlů tvořících vstupní rozhraní pro klientské požadavky k vyřízení, uzly mající za úkol mapování a uzly provádějící redukci. Struktura clusteru se může lišit počtem uzlů vykonávajících určitou roli nebo některé uzly mohou zastávat více rolí, ale pro účely škálování bude zátěž z výpočetně nejnáročnější operace map rozložena na více uzlů. 28

35 4 Aplikace metod na konkrétní problémy Pro všechny dříve popsané úlohy strojového učení lze v oblasti e-komerce vymyslet mnohé způsoby jejich uplatnění. Nejznámější klasifikační úlohou je detekce nevyžádané pošty (spam), kdy na základě ručního roztřídění došlé pošty uživatelem klasifikátor u nově příchozích ů odhaduje, zda nemají být označeny jako spam a nějakou formou filtrovány (odmítnuty při SMTP spojení na poštovní server nebo přesunuty do vizuálně oddělené přihrádky v ovém klientovi). Klasifikovány mohou být prakticky jakákoliv data. Jakmile je potřeba něco třídit nebo ohodnotit a jsou pro tento úkol k dispozici ohodnocená historická (učící) data, počítačem prováděná klasifikace umožňuje zpracovat masivní množství dat. Výstup může být chápán jako konečný stav nebo posloužit jako příprava podkladů pro konečné zpracování lidskou silou. Pro shlukování existuje rovněž široké uplatnění: seskupovat lze podobné dokumenty (produkty, obrázky), databáze zákazníků lze rozdělit do vyprofilovaných skupin (customer/market segmentation) nebo najde své uplatnění při analýze prodeje. Strojové učení je základem mnoha úspěšných služeb, které jsou běžně využívány na Internetu[3]: klasifikátor spamu (Spam Assasin, Gmail, atd.) sémantická reklama (Google Adwords, Sklik, atd.) klasifikace typu zpráv (Gmail a jeho tématické složky) doporučení zákazníci, kteří koupili tento produkt, rovněž zakoupili... (Amazon) Další potenciální způsoby nasazení strojového učení podle [27]: doporučení produktů na základě známých údajů o zákazníkovi (např. z historie nákupů, bydliště, zájmů) nebo na základě doporučení jiných zákazníků s podobným profilem (collaborative filtering) rozpoznávání podvodného nebo jinak nežádoucího jednání (detekce anomálií) jako jedna z metod oblasti dolování dat, například analýza kombinace atributů u zákazníka, které ho předurčují k nákupu Zdrojovými daty nemusí být pouze data ve výhradním vlastnictví tvůrce analýzy, existují i zdroje veřejně dostupné. Jedním z takových dostupných zdrojů dat vhodných pro analýzu jsou sociální sítě, protože obsahují dostatečně velké množství profilů 29

36 se zveřejněnými údaji využitelnými pro zacílení na určité demografické skupiny. Často zveřejňovanými údaji jsou: rok narození pohlaví dosažené vzdělání přibližné bydliště atd. Další zpřesňující údaje lze získat například emočně časovou analýzou profilu. Například proběhnou-li volby či jiná významná celospolečensky vnímaná událost, lze kombinací jejich výsledku a projevené emoce v čase po vyhlášení s velkou pravděpodobností přiřadit danému profilu politické nebo jiné preference a zpřesnit jeho demografické zařazení. Společně s dalšími údaji v profilu pak tyto odvozené údaje poslouží jako zdrojová data pro další analýzu. Předmětem analýzy může být nepřeberné množství otázek, pro která lze nějakým způsobem z dostupných dat najít indicie pro rozhodnutí. Vyjádřil se analyzovaný jedinec k nějakému analyzovanému tématu (klasifikace)? Jaké emoce projevil (rozpoznávání emocí)? Jaká témata preferuje (extrahování informací)? Jaké barvy má rád (analýza grafických dat)? V jakých časech bývá online (statistika)? A mnoha dalších. 4.1 Agregace zpráv Agregátory zpráv mají za úkol shromažďovat informace z různých zdrojů a usnadnit uživateli získat rychlý přehled o všech aktuálních tématech. Jako zdroj obvykle slouží takzvané RSS feedy, tedy XML dokumenty určené pro syndikaci obsahu. Agregátory mohou být sofistikovanější a zpracovávat i obsah na odkazované webové adrese, případně nabízet jinou přidanou hodnotu. Tou může být: dohledání jiných podobných článků (oblast topic modeling) profilování hlavních zpráv podle počtu zdrojů (topic modeling, clustering) filtraci hlavních zpráv tak, aby se vedle sebe nezobrazovaly články z různých zdrojů na stejné téma (topic modeling) štítkování zpráv podle předem připraveného seznamu štítků (classification, labeling) výběr článků podle profilu uživatele (classification, collaborative filtering) za pomoci jednoduché metriky založené na četnosti článků určit význam aktuálních událostí 30

37 Příkladem služeb fungujících na principu agregátoru jsou Google News (news.google.cz) nebo Právě dnes (pravednes.cz). Agregování lze využít i pro potřeby marketingu. Například inzerent hledající reklamní prostory, může použít agregátor pro odhalení míst, kde se pro inzerci relevantními tématy dlouhodobě zabývají. Obdobně on-line reklamní systémy musí umět agregovat zapojené webové stránky do tematických celků tak, aby mohly rozhodovat o co nejlepším umístění inzerce. 4.2 Rozpoznávání jazyka Příklad: firma provozuje multijazyčný web a obsluhuje zákazníky komunikující různými jazyky. Pokud strojově rozpozná, v jakém jazyce je příchozí komunikace, může ji nasměrovat na vhodnou osobu pro její vyřízení.14 Z pohledu strojového učení je rozpoznání jazyka klasifikační úlohou. Alternativou ke strojovému rozpoznávání jazyka mohou být pomůcky v podobě existence různých ových adres, přiřazení jazyka na základě jazykové mutace podle jazykové verze použité pro zobrazení kontaktního formuláře nebo explicitní vyžádání volby jazyka od protistrany. Všechny tyto alternativy sebou nesou zásadní nevýhody. Existence pro zákazníky. více ových adres zhoršuje přehlednost kontaktních údajů V rámci jedné webové prezentace lze toto skrýt pomocí filtrace podle jazykové mutace, ale v případě inzerce, firemních zápisů v různých katalozích nebo materiálů tato možnost neexistuje. Zákazníci mohou z různých důvodů používat odlišnou jazykovou mutaci pro prohlížení webu a jazyk pro komunikaci. Například kvůli odlišné kvalitě prezentace a úplnosti doprovodných materiálů se jim často vyplatí upřednostnit anglickou variantu před ostatními. Ale to neznamená, že při kontaktu lokálního zastoupení nebudou chtít komunikovat svou rodnou řečí nebo nebudou klást dotazy určené lokálnímu zastoupení. Komunikující operátor tak může dostat k řešení obsah, kterému nebude rozumět. A nakonec třetí zmíněná alternativa je současně ukázkou odrazujícího obtěžování potenciálního zákazníka od kontaktu. Nejen při webovém prodeji platí, že cokoliv složitého odvádějícího pozornost od žádoucího směru znamená vysoké procento odchodů ze stránky a ztráty obchodní příležitosti. 14 Inspirováno příkladem uvedeným v dokumentaci k Google Prediction API[28]. 31

38 údržba 2 3 zákazník 1 1 podle jazykové mutace 2 více ových adres 3 volba jazyka ve formuláři vyřízení Ilustrace 9: Složitost alternativ ke strojovému rozpoznání jazyka Strojové učení není jediný způsob, jak se s takovým problémem vypořádat. Diagram na Ilustrace 9 mapuje negativní rysy alternativ ke strojovému rozpoznávání jazyka: zvýšenou složitost pro zákazníka, složitost pro údržbu obsahu a složitost pro vyřízení. Pokud je pro řešení využito strojové učení, vše se zjednoduší: jedna ová adresa pro vnější komunikaci, jeden kontaktní formulář, žádné nadbytečné prvky odrazující od jeho použití. A přesto v naprosté většině případů komunikace poputuje k nejvhodnějšímu příjemci. 4.3 Rozpoznávání obsahu Za příklad poslouží stejný problém jako u rozpoznávání jazyka s malou obměnou: hledá se nejvhodnější příjemce podle typu obsahu. Technický dotaz by měl být přeposlán na podporu prodeje, propagační materiály na sekretariát nebo do spamu, objednávky na prodejce, reklamace reklamačnímu oddělení atd. 4.4 Rozpoznávání emocí Příklad: firmu dovážející elektroniku zajímá, jaké jsou skutečné reakce cílové skupiny nově uvedeného produktu v zahraničí. Na základě nich se rozhodne, zda má zájem ucházet se o zastoupení pro ČR. Rozpoznávání emocí je v takovém případě mocným nástrojem pro zvyšování úspěšnosti prodeje. Co bude prodejním hitem příštích vánoc? Jak zákazníci hodnotí zakoupené produkty? Má smysl jim k nim zpětně nabízet příslušenství nebo se raději nepřipomínat? Pokud bude prodejce schopen na takové otázky s předstihem a vysokou úspěšností umět odpovědět, nepochybně tím získá významnou konkurenční výhodu. Z pohledu strojového učení je rozpoznávání emocí klasifikační úlohou. Zdroji pro rozpoznání emocí mohou být sociální sítě, diskusní příspěvky pod články nebo produkty, ale třeba i vlastní ová komunikace se zákazníkem. 32

39 4.5 Rozpoznávání zájmu o produktové vlastnosti Příklad: firma na základě analýzy zájmu cílové skupiny tipuje vlastnosti produktů, které jsou významné pro úspěšnost prodeje. Místo aby odpovědní pracovníci hádali potenciální sortiment či některé zákazníky požadované atributy na základě své intuice a zkušeností, mohou se rozhodovat až ve výběru zúženém pomocí strojové inteligence. Strojová inteligence na rozdíl od lidských pracovníků může analyzovat řádově větší objem informací a přispět tak k lepší konečné volbě. Zdrojová data pro analýzu mohou pocházet z historie prodejů nebo průzkumu údajů na sociálních sítích. Cílem analýzy je identifikovat společné rysy prodejně úspěšných nebo naopak neúspěšných produktů. Z pohledu strojového učení se nabízí několik rovnocenných postupů. Pokud analýza probíhá nad historickými daty o prodeji, může být jako metoda zvoleno seskupování podle technických produktu a získané shluky dále analyzovány například z pohledu prodejnosti nebo marže. Takové nasazení je typické pro využití strojového učení jako techniky dolování dat. Protože tímto způsobem získané shluky budou pravděpodobně dále ručně analyzovány, je vhodné pro tyto účely použít nástroje s grafickým uživatelským rozhraním. Jiným přístupem by mohla být klasifikace, kdy produkty zvažované pro zařazení do sortimentu by klasifikátorem získaly hodnocení jejich potenciálu. Nebo by pro každý takový produkt byly algoritmem pro hledání podobnosti nalezeny jeho nejbližší ekvivalenty a potenciál by byl odhadnut z jejich historického výkonu. 4.6 Extrahování informací Extrahování informací (information extraction) se zabývá získáním strukturovaných dat z dat nestrukturovaných a to především pomocí metod zpracování přirozeného jazyka (NLP). Nestrukturovaná zdrojová data ale nemusí být pouze ve formě textu, do této kategorie strojového učení se řadí i multimediální data a další formáty. Hlavní motivací taková data zpracovávat je velký informační potenciál, který skýtají. Nestrukturovaná data často obsahují informace zasazené do kontextu s jinými informacemi a umožňují odhalovat skryté souvislosti. Navíc nestrukturovaná data tvoří až 80% všech dat, kterými podniky disponují[4]. V oblasti e-komerce může být jedním ze scénářů využití pro tipování nového sortimentu na základě recenzí v oborových webových magazínech. Výstupem zpracování 33

40 jednotlivých článků pak může být vektor (výrobce, produkt, datum) určený pro další například statistické zpracování. Jinou aplikací může být automatické přiřazení štítků bitmapovým obrázkům na základě produktů, které se na nich vyskytují. Složitost takové klasifikační úlohy stoupá s počtem rozpoznávaných tvarů a jejich podobností, přičemž pro úspěšnost je především rozhodující zvolit správné příznaky, podle kterých budou tvary rozpoznávány. Zde by mohlo být výstupem přiřazení jednoho nebo více vektorů ve tvaru (produkt, pohled) ke klasifikovanému obrázku. 4.7 Analýza grafických dat V jaké podobě je k dispozici nejvíce elektronicky uložených dat? Bez ohledu na metodiku měření a její konečný výsledek, grafická data budou tvořit nezanedbatelný podíl. Údaje o struktuře dat přenášených po Internetu uvádí, že objemově většinu síťového provozu tvoří přenos video obsahu[29]. Nakolik koreluje údaj o podílu na síťovém provozu s podílem na celkově existujícím objemu dat? Bez zodpovězení této otázky nelze vyvozovat závěry o obecné dominanci objemu grafických dat nad jinými formáty, přesto jako indicie významu takový údaj posloužit může. Pro potřeby této práce je daleko důležitější otázkou, kolik údajů nebo dokonce informací z dat v této podobě dokážeme strojově získat. Ačkoliv grafická data mohou mít různou podobu (videosekvence, bitmapy, vektory), nejobvyklejším předmětem zpracování bude pravděpodobně bitmapový obrázek. Výsledky jeho zpracování mohou být zasazeny do komplexnější úlohy, kterou může být například analýza pohybu na videosekvenci nebo na ještě vyšší úrovni řízení dopravního prostředku umělou inteligencí. Někde na nejnižší úrovni zapouzdření bude nutné umět popsat obsah obrazových dat a využít tento popis pro potřeby zadané úlohy. Popis dat může tvořit nějaký vektor hodnot. Význam hodnot, tedy co konkrétní hodnoty představují, a dimenze vektorového prostoru jsou základní vlastnosti ovlivňující použitelnost popisu při dalším zpracování. Jedním takovým způsobem popisu bitmapového obrázku je rozdělit bitmapu na množství menších segmentů a pro ně získat popisný vektor atributů (image segmentation). Takto získaný vektor lze použít k dohledání podobného vektoru představujícího jiný obrázek. 34

41 Podle [30] postup řešení problematiky hledání vizuální podobnosti zahrnuje kroky: 1. Předzpracování obrázku: aplikace filtrů pro zvýšení kontrastu, odstranění šumu atd. 2. Segmentace obrázku (image segmentation) pomocí rozdělení na jednotlivé rovnoměrné segmenty (například tvořící matici) nebo rozdělení na oblasti, ve kterých pixely uvnitř mají společné vlastnosti mimo oblast se nevyskytující. Zde se může uplatnit strojové učení (shluková analýza, klasifikace,...). 3. Vytvořit popisné vektory pro jednotlivé regiony. 4. Pokud je to potřeba, znovu provést segmentaci. Přitom rozhodnout, zda některé původně získané segmenty spojit do jednoho. Při tomto kroku mohou být nezbytné znalosti o konkrétní úloze (např. o hledaném objektu), jen zřídkakdy může být použit obecný automatický postup. 5. Odstranit segmenty, které se zdají nepotřebné pro další zpracování: jsou příliš malé nebo vyhodnoceny jako nerelevantní. 6. Uložit popisný vektor obrázku pro pozdější zpracování a opakovat kroky pro ostatní obrázky. 7. Použít popisné vektory pro porovnání obsahu obrázků za pomoci některého z algoritmů pro porovnávání vzorů, klasifikaci, shlukování nebo obecně z oblasti umělé inteligence a dolování dat. Způsob segmentace je odvislý od úlohy, pro kterou je popis připravován. Tam kde je segmentace provedena rozdělením bitmapy na pevný počet sloupců a řádků, mohou být popisnými informacemi barevné kanály nebo jas[31]. Například údaj o nejčastější nebo průměrné barvě atd. U nepravidelných segmentů potom navíc tvar segmentu, jeho obvod, plocha, počet děr a další vlastnosti, které lze objektivně naměřit[30]. Informace v obrazových datech jsou primárně reprezentovány nějakými objekty a objekt lze nejlépe detekovat podle jeho hran. Proto segmenty mohou být popsány podle uvnitř detekovaných tvarů pomocí detektorů hran. Ty mohou pracovat na principu derivací obrazu nebo analýze frekvenčního pásma[32], nejčastěji se používá histogram[33]. Hranu pak představují místa s velkou změnou jasových hodnot pixelů[32]. Zejména při prodeji v elektronických obchodech nastává situace, kde je dobré zákazníkovi nabídnout produkt podobný nějakému jinému (vyprodanému, dříve prohlíženému, atd.). Podobnost může být určena nejen podle technických parametrů produktu, 35

42 ale právě i vizuální. Samostatnou otázkou k zodpovězení je, co si představit pod pojmem vizuální podobnost produktů. Při porovnání vzhledu není jednoznačně rozhodnutelné, zda jsou si více podobné vyobrazení s podobnými objekty (sémantická podobnost), s podobným barevným rozložením na fotografii nebo obsahující stejné vzory. Posouzení podobnosti je problematické, protože je velmi subjektivní a každý jedinec může vyhodnotit podobnost zcela odlišně.[34] Tento problém dobře znázorňuje Ilustrace 10, kde vyhledávač Google vrací seznam vizuálně podobných obrázků pro zadaný obrázek obsahující dětské kolo. Ani jeden z nabídnutých obrázků neobsahuje vyhledávaný objekt, přesto všechny nesou vizuálně podobné znaky v podobě zeleného travnatého pozadí.15 Z těchto důvodů může být žádoucí za pomoci strojového učení vytvořit personalizovaný model uzpůsobený záměrům konkrétního návštěvníka. Upřednostňované znaky mohou být odhadnuty podle shodných vlastností několika posledních produktů, které si prohlížel. 15 Nutno dodat, že v Google lze dosáhnout lepšího výsledku kombinováním zdrojového obrázku a klíčového slova dětské kolo. Potom výsledky budou obsahovat dětská kola na zeleném travnatém pozadí. 36

43 Například u zákazníka vybírajícího míč v obchodě s hračkami může na základě historie prohlížených položek algoritmus strojového učení vyhodnotit jako pro něj rozhodující kritérium barevnost a nabídnout mu seznam pravděpodobně pro něj zajímavých položek. U jiného bude hlavním kritériem konkrétní vzor, kterým je třeba jeho oblíbená kreslená postavička. Zaznamenávat všechna potenciální kritéria ručně by představovalo tak velké nároky na administrativu, že to lze u velkého sortimentu považovat za prakticky neproveditelné. Navíc umělá inteligence je schopna odhalit i podobnosti, které nejsou na první pohled zřejmé nebo prostě jen lidskou obsluhu ve chvíli zadávání dat nenapadly. Sémantické porovnání obrázků je nelehlý úkol, při kterém je nutné se vypořádat s mnoha technickými problémy. I původně identické obrázky mohou být vinou dalšího zpracování pozměněny (změna rozlišení, komprese, barevnosti). Jakmile dva obrázky obsahují fotografie téhož objektu z jiného úhlu, zvětšení nebo třeba osvětlení, přes sémantickou identičnost může obraz nést naprosto odlišné popisné znaky. A platí to i naopak: fotografie s odlišnými objekty nacházejícími se v podobném prostředí se budou v mnoha ohledech podobat[30], jak zachycuje Ilustrace Předpověď chování návštěvníka webu Na základě podobnosti pohybu na webových stránkách (sled, strávený čas,...) aktuálního návštěvníka s historickými daty lze odhadovat jeho pravděpodobný cíl, případně pravděpodobný konečný stav návštěvy (nákup, kontakt, odchod). Při zapojení více vstupních údajů lze předpovídat další vlastnosti. Pro vyhodnocení pohybu na webu se zdají být vhodné absorpční (Markovovy) řetězce, kde stavy reprezentují jednotlivé stránky webu a přechody mezi nimi jsou ohodnocené pravděpodobností takového přechodu. Absorpční stavy pak představují sledované konverzní cíle (košík, kontaktní formulář) nebo pro analýzu jinak relevantní stránky. Stavy také mohou představovat seskupení více stránek, například detaily všech produktů mohou být jedním stavem a jiným výpisy produktů v libovolné kategorii, případně stránky produktů seskupené tématicky (stav tvořený detaily všech cestopisů a jiný stav tvořený detaily všech prodávaných knih o vaření). Takto vytvořený grafický model sám o sobě poslouží pro získání statisticky zajímavých údajů[35]. 37

44 Příklady informací odvozených z charakteristik absorpčních řetězců: Střední doba přechodu procesu započatého příchodem z reklamní upoutávky měřená proti skupině stránek se seznamem produktů (představující transientní stavy) jako informace o tom, jak přesně daná kampaň směruje získané návštěvníky k cíli. Střední doba strávená v transientních stavech vypovídá o tom, odkud návštěvníkům trvá nejdéle nebo naopak nejméně kroků, než zkonvertují nebo odejdou. Takový údaj může avizovat, kde je vhodné zkrátit proces objednání. Pravděpodobnost přechodu do absorpčních stavů napoví, které vstupní stránky (seskupení) mají nejlepší nebo nejhorší konverzní poměr. Takový údaj může být použit pro volbu, kam směrovat odkazy při inzerci. Pravděpodobnost přechodu z nějakého transientního stavu do absorpčního v zadaném čase je charakteristika, která srovnáním různých transientních stavů vypovídá o přehlednosti nebo přesvědčivosti jimi představovaných stránek. Zodpoví otázky, zda odněkud návštěvník nebloudí moc dlouho nebo o něj zbytečně provozovatel webu nepřichází. Pro proces strojového učení může vhodně sestavený absorpční řetězec představovat zdroj dat. Například při úpravách webových stránek může klasifikátor využívající vektor charakteristik automaticky detekovat vznik případného problému. Pro tento účel musí být změny zaznamenávány včetně aktuálních charakteristik před jejich nasazením a pomocí nějakého kritéria ohodnoceny. Jiné scénáře se mohou zaměřovat na klasifikaci návštěvníka nebo identifikaci jeho cílů a na zjištěné výsledky vhodně reagovat. Pokud by v každém návštěvníkem prodělaném stavu bylo vyhodnoceno jeho vlastní chování, může posloužit pro hledání podobnosti mezi ním a jinými návštěvníky. Tento způsob je vhodný i pro detekci robotů, kdy vysoká míra odchylek od obvyklého chování poslouží pro klasifikátor jako alternativa k učení se chování charakteristického pro roboty. 38

45 5 Popis implementace V předchozích kapitolách byly popsány algoritmy strojového učení a scénáře jejich aplikace na vybrané problémy z oblasti e-komerce. Tato kapitola si klade za cíl přetavit nabyté teoretické znalosti do schopnosti implementovat strojové učení jako řešení reálných problémů. Obdobně jako v jiných odvětvích vývoje software i pro strojové učení existují nástroje a knihovny usnadňující implementaci. Pro praktické využití není tedy nutná detailní znalost každého použitého algoritmu, spíše se upotřebí všeobecný teoretický přehled a znalost nástrojů, jež jsou pro konkrétní úlohu k dispozici. 5.1 Nástroje Pro implementaci ukázkových příkladů byly zvažovány tyto nástroje: Java-ML Weka Apache Mahout Mallet BoofCV Commons Math Při výběru byla posuzována náročnost nasazení v kombinaci s jazykem Java (autorem subjektivně upřednostňovaným) a svobodná licence. Svobodné licence neznamenají automaticky bezproblémové použití, proto především před komerčním využitím je nutné ověřit, zda licence nástrojů neklade na jimi vytvořené dílo své vlastní požadavky16. K dispozici jsou i další nástroje a knihovny pro oblast strojového učení, které mohou být pro některé reálné úlohy vhodnější volbou. Příkladem stojícím za zmínku je framework českého původu Gensim (http://radimrehurek.com/gensim/) specializující se na zpracování přirozeného jazyka. 16 Například svobodná licence GPL je relativně invazivní a pro proprietární software určený k dalšímu šíření mohou být její požadavky na odvozená díla neakceptovatelné nebo dokonce nepřijatelné pro licenční konflikt s jinými částmi aplikace. Někdy je tento fakt součástí obchodní politiky autorů, kteří duálně k produktu nabízejí i komerční licence. 39

46 5.1.1 Apache Mahout Framework Apache Mahout (http://mahout.apache.org/) je zaměřen primárně na aplikace strojového učení v prostředí výpočetních clusterů. Je postaven nad projektem Apache Hadoop (http://hadoop.apache.org/), který poskytuje spolehlivý ekosystém pro škálovatelné a distribuované výpočty. V současnosti podporuje čtyři základní případy použití: 1. Návrhy doporučení (recommendation mining): doporučení položek na základě předchozího chování uživatele. 2. Shlukování (clustering): vytváření skupin dokumentů, které jsou tematicky podobné. 3. Klasifikace (classification): automatické přiřazení dokumentu do tematicky odpovídající kategorie. 4. Hledání společného výskytu (frequent itemset mining): identifikace položek, které se vyskytují často společně Weka17 Framework Weka je zaměřen na dolování dat a pro tento účel má implementovánu podporu pro všechny obvyklé typové úlohy a běžně používané algoritmy. Disponuje grafickým uživatelským rozhraním, ze kterého umožňuje vizuálně měnit typ úlohy, použitý algoritmus nebo parametry úloh. Obsahuje generátory dat pro testování, filtry pro předzpracování dat z různých zdrojů a umí výsledky vizualizovat pomocí grafů. Tyto vlastnosti ho proto favorizují pro výukové potřeby a ručně prováděnou analýzu dat. Současně lze nástroj ovládat příkazy v terminálu nebo použít jako knihovnu umožňující algoritmy volat z vlastního zdrojového kódu. Framework nabízí několik samostatných grafických rozhraní: Weka KnowledgeExplorer KnowledgeFlow Weka Experimenter Weka KnowledgeExplorer slouží pro zkoumání dat a snadnou aplikaci všech nástrojů dostupných ve frameworku. Rozhraní KnowledgeFlow má podobný účel, ale je inspirované 17 Kapitola zpracována za pomoci dokumentace projektu[36] 40

47 procesním modelováním a umožňuje vizuálně modelovat sekvenci kroků, které mají být vykonány. Poslední Weka Experimenter je určen pro testování algoritmů strojového učení. Umožňuje předvolit počet iterací, kolekce dat a učících algoritmů, které na ně mají být aplikovány. Získané modely pak testovat a porovnávat jejich úspěšnost napříč algoritmy a původními i novými daty. Při použití z jazyka Java jsou základními komponentami frameworku Weka: instance představující vzorky dat filtry pro předzpracování dat učící algoritmy (klasifikátory, shlukovače) hodnotící algoritmy pro posouzení přesnosti výstupu učících algoritmů algoritmy pro výběr atributů (feature selection) Za zmínku stojí, že autoři frameworku Weka se podílí na vývoji jiného frameworku MOA. Ten má podobné vlastnosti, ale je zaměřen na streamovaná data. Protože pro něj v současnosti neexistuje stabilní verze, nebude mu věnováno více prostoru Java-ML18 Knihovna obsahuje množství algoritmů pro strojové učení a navíc umí pracovat i s některými třídami nástroje Weka. V současnosti podporuje typové úlohy klasifikace a shlukové analýzy. Základním stavebním prvkem je datový vzorek reprezentovaný třídou Instance, jednotlivé vzorky jsou seskupovány do množin představovaných třídou Dataset. Instance může mít své atributy, které jsou představované reálnými čísly, a také může volitelně mít určenou třídu, do které náleží. Všechny algoritmy obsažené v knihovně požadují na vstupu data reprezentovaná v těchto formátech. Algoritmy jsou nejenom učící, ale pokrývají širší spektrum problémů a požadavků, se kterými se lze při aplikaci metod strojového učení setkat. Takovými požadavky jsou například manipulace s daty (vytváření, ukládání, načítání, vzorkování, normalizace, diskretizace, aproximace hodnot nebo smazání neúplných vzorků) a atributy (ohodnocení, výběr) nebo porovnání instancí (vzdálenost, podobnost, korelace) atd. Třídy s algoritmy jsou 18 Kapitola zpracována z dokumentace projektu[37] 41

48 v knihovně transparentně organizovány pomocí veřejných rozhraní. Dají se tedy s minimálním zásahem do zdrojového kódu zaměňovat za jiné implementující stejné rozhraní Mallet Mallet je nástroj pro statistické zpracování přirozeného jazyka, klasifikaci dokumentů, shlukování, identifikaci témat, extrahování informací a další aplikace strojového učení pro zpracování textu.[15] Mallet lze ovládat z příkazové řádky nebo ho použít jako Java balík a programovat proti jeho Java API. Podporovány jsou tyto typy modelů[15]: generativní (pravděpodobnostní modely pro náhodná známá data) Naive Bayes Hidden Markov Models Latent Dirichlet Topic Models diskriminativní (modelují závislost neznámé proměnné y na známé x) Logistická regrese Conditional random fields (CRFs) BoofCV Knihovna BoofCV je primárně určena pro aplikace počítačového vidění. Knihovna mimo jiné obsahuje části věnované zpracování obrazu (aplikace filtrů), detekce atributů pro popisné vektory a jejich vizualizaci. Některé její schopnosti jsou specifické pro práci s kamerou a videem, jiné jsou obecně využitelné pro analýzu obrazu. Takovou obecnou funkcionalitou je detekce takzvaných zájmových bodů, kdy detekované vzory mohou posloužit i pro hledání podobností mezi bitmapami. Zájmové body jsou místa, která lze matematicky definovat a algoritmicky detekovat (roh, křivka, atd.). Detekované zájmové body musí být nějakým způsobem přepsány do vektoru. Zatímco o proces detekce se stará takzvaný detektor, o přepis se stará deskriptor. Pro detekci knihovna obsahuje povícero algoritmů, včetně algoritmů založených na dvourozměrné nebo trojrozměrné geometrii. Stejně tak je na výběr z více typů deskriptorů. Detektory a deskriptory mají odlišné vlastnosti především s ohledem na rychlost a odolnost proti změně pozice kamery Knihovna BoofCV se používá především pro počítačové vidění založené na zpracování sekvence snímků. 42

49 Například algoritmus FAST umí detekovat rohy tak, že kolem bodu zvažovaného za rohový vytvoří kruh a počítá na jeho obvodu délku souvislé řady, která je tvořena buď světlejšími nebo tmavšími pixely než středový bod[38]. Základními parametry pro rozhodování algoritmu jsou poloměr kruhu, požadovaná délka souvislé řady a minimální akceptovaný rozdíl světlosti (threshold). Princip je zobrazen na obrázku Ilustrace 11, kde kruh tvoří 16 pixelů a vyhovující souvislou řadu tvoří devět pixelů. Knihovna disponuje funkcí sledování atributů (feature tracking), kterou dokáže sledovat detekované zájmové body mezi snímky s odlišnou polohou kamery (vzdálenost, změna úhlu). Pro tuto funkcionalitu využívá metody strojového učení Apache Commons Math Jde o knihovnu pro matematické a statistické výpočty, jejíž součástí je i komponenta org.apache.commons.math3.ml pro strojové učení. V současné verzi (v3.2) obsahuje množství algoritmů využitelných pro strojové učení (genetické algoritmy, algoritmy pro regresní analýzu, shlukování). Současně ale nepodporuje iterativní metody řešení úloh, proto se nehodí na zpracování velkých objemů dat. Také se neumí sama vypořádat s případnými chybějícími daty. 43

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY

Více

EKONOMETRIE 7. přednáška Fáze ekonometrické analýzy

EKONOMETRIE 7. přednáška Fáze ekonometrické analýzy EKONOMETRIE 7. přednáška Fáze ekonometrické analýzy Ekonometrická analýza proces, skládající se z následujících fází: a) specifikace b) kvantifikace c) verifikace d) aplikace Postupné zpřesňování jednotlivých

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

Úvodem Dříve les než stromy 3 Operace s maticemi

Úvodem Dříve les než stromy 3 Operace s maticemi Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová

Více

Neuronové časové řady (ANN-TS)

Neuronové časové řady (ANN-TS) Neuronové časové řady (ANN-TS) Menu: QCExpert Prediktivní metody Neuronové časové řady Tento modul (Artificial Neural Network Time Series ANN-TS) využívá modelovacího potenciálu neuronové sítě k predikci

Více

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1 Logistická regrese Menu: QCExpert Regrese Logistická Modul Logistická regrese umožňuje analýzu dat, kdy odezva je binární, nebo frekvenční veličina vyjádřená hodnotami 0 nebo 1, případně poměry v intervalu

Více

Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a přiřazení datových modelů

Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a přiřazení datových modelů Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a datových modelů Obsah Seznam tabulek... 1 Seznam obrázků... 1 1 Úvod... 2 2 Metody sémantické harmonizace... 2 3 Dvojjazyčné katalogy objektů

Více

Strojové učení Marta Vomlelová

Strojové učení Marta Vomlelová Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy

Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Autor práce : RNDr. Ivo Beroun,CSc. Vedoucí práce: prof. RNDr. Milan Meloun, DrSc. PROFILOVÁNÍ Profilování = klasifikace a rozlišování

Více

Automatická detekce anomálií při geofyzikálním průzkumu. Lenka Kosková Třísková NTI TUL Doktorandský seminář, 8. 6. 2011

Automatická detekce anomálií při geofyzikálním průzkumu. Lenka Kosková Třísková NTI TUL Doktorandský seminář, 8. 6. 2011 Automatická detekce anomálií při geofyzikálním průzkumu Lenka Kosková Třísková NTI TUL Doktorandský seminář, 8. 6. 2011 Cíle doktorandské práce Seminář 10. 11. 2010 Najít, implementovat, ověřit a do praxe

Více

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat Zkouška ISR 2013 přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat 1. Rozdílné principy u induktivního a deduktivního

Více

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení 2 Zpracování naměřených dat Důležitou součástí každé experimentální práce je statistické zpracování naměřených dat. V této krátké kapitole se budeme věnovat určení intervalů spolehlivosti získaných výsledků

Více

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 DOLOVÁNÍ V DATECH (DATA MINING) OBJEVUJE SE JIŽ OD 60. LET 20. ST. S ROZVOJEM POČÍTAČOVÉ TECHNIKY DEFINICE PROCES VÝBĚRU, PROHLEDÁVÁNÍ A MODELOVÁNÍ

Více

Korelační a regresní analýza

Korelační a regresní analýza Korelační a regresní analýza Analýza závislosti v normálním rozdělení Pearsonův (výběrový) korelační koeficient: r = s XY s X s Y, kde s XY = 1 n (x n 1 i=0 i x )(y i y ), s X (s Y ) je výběrová směrodatná

Více

Ilustrační příklad odhadu LRM v SW Gretl

Ilustrační příklad odhadu LRM v SW Gretl Ilustrační příklad odhadu LRM v SW Gretl Podkladové údaje Korelační matice Odhad lineárního regresního modelu (LRM) Verifikace modelu PEF ČZU Praha Určeno pro posluchače předmětu Ekonometrie Needitovaná

Více

Statistika. Regresní a korelační analýza Úvod do problému. Roman Biskup

Statistika. Regresní a korelační analýza Úvod do problému. Roman Biskup Statistika Regresní a korelační analýza Úvod do problému Roman Biskup Jihočeská univerzita v Českých Budějovicích Ekonomická fakulta (Zemědělská fakulta) Katedra aplikované matematiky a informatiky 2008/2009

Více

PRODUKTY. Tovek Tools

PRODUKTY. Tovek Tools jsou desktopovou aplikací určenou k vyhledávání informací, tvorbě různých typů analýz a vytváření přehledů a rešerší. Jsou vhodné pro práci i s velkým objemem textových dat z různorodých informačních zdrojů.

Více

Popisná statistika kvantitativní veličiny

Popisná statistika kvantitativní veličiny StatSoft Popisná statistika kvantitativní veličiny Protože nám surová data obvykle žádnou smysluplnou informaci neposkytnou, je žádoucí vyjádřit tyto ve zhuštěnější formě. V předchozím dílu jsme začali

Více

Hodnocení kvality logistických procesů

Hodnocení kvality logistických procesů Téma 5. Hodnocení kvality logistických procesů Kvalitu logistických procesů nelze vyjádřit absolutně (nelze ji měřit přímo), nýbrž relativně porovnáním Hodnoty těchto znaků někdo buď předem stanovil (norma,

Více

Strojové učení se zaměřením na vliv vstupních dat

Strojové učení se zaměřením na vliv vstupních dat Strojové učení se zaměřením na vliv vstupních dat Irina Perfilieva, Petr Hurtík, Marek Vajgl Centre of excellence IT4Innovations Division of the University of Ostrava Institute for Research and Applications

Více

StatSoft Úvod do neuronových sítí

StatSoft Úvod do neuronových sítí StatSoft Úvod do neuronových sítí Vzhledem k vzrůstající popularitě neuronových sítí jsme se rozhodli Vám je v tomto článku představit a říci si něco o jejich využití. Co si tedy představit pod pojmem

Více

Pravděpodobnost, náhoda, kostky

Pravděpodobnost, náhoda, kostky Pravděpodobnost, náhoda, kostky Radek Pelánek IV122, jaro 2015 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností krátké

Více

Měření závislosti statistických dat

Měření závislosti statistických dat 5.1 Měření závislosti statistických dat Každý pořádný astronom je schopen vám předpovědět, kde se bude nacházet daná hvězda půl hodiny před půlnocí. Ne každý je však téhož schopen předpovědět v případě

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Rozhodovací stromy Doc. RNDr. Iveta Mrázová, CSc.

Více

Úloha 1. Napište matici pro případ lineárního regresního spline vyjádřeného přes useknuté

Úloha 1. Napište matici pro případ lineárního regresního spline vyjádřeného přes useknuté Úloha 1. Napište matici pro případ lineárního regresního spline vyjádřeného přes useknuté polynomy pro případ dvou uzlových bodů ξ 1 = 1 a ξ 2 = 4. Experimentální body jsou x = [0.2 0.4 0.6 1.5 2.0 3.0

Více

VYUŽITÍ MATLABU PRO VÝUKU NUMERICKÉ MATEMATIKY Josef Daněk Centrum aplikované matematiky, Západočeská univerzita v Plzni. Abstrakt

VYUŽITÍ MATLABU PRO VÝUKU NUMERICKÉ MATEMATIKY Josef Daněk Centrum aplikované matematiky, Západočeská univerzita v Plzni. Abstrakt VYUŽITÍ MATLABU PRO VÝUKU NUMERICKÉ MATEMATIKY Josef Daněk Centrum aplikované matematiky, Západočeská univerzita v Plzni Abstrakt Současný trend snižování počtu kontaktních hodin ve výuce nutí vyučující

Více

13 Barvy a úpravy rastrového

13 Barvy a úpravy rastrového 13 Barvy a úpravy rastrového Studijní cíl Tento blok je věnován základním metodám pro úpravu rastrového obrazu, jako je např. otočení, horizontální a vertikální překlopení. Dále budo vysvětleny různé metody

Více

Tomáš Karel LS 2012/2013

Tomáš Karel LS 2012/2013 Tomáš Karel LS 2012/2013 Doplňkový materiál ke cvičení z předmětu 4ST201. Na případné faktické chyby v této presentaci mě prosím upozorněte. Děkuji. Tyto slidy berte pouze jako doplňkový materiál není

Více

Tovek Tools. Tovek Tools jsou standardně dodávány ve dvou variantách: Tovek Tools Search Pack Tovek Tools Analyst Pack. Připojené informační zdroje

Tovek Tools. Tovek Tools jsou standardně dodávány ve dvou variantách: Tovek Tools Search Pack Tovek Tools Analyst Pack. Připojené informační zdroje jsou souborem klientských desktopových aplikací určených k indexování dat, vyhledávání informací, tvorbě různých typů analýz a vytváření přehledů a rešerší. Jsou vhodné pro práci s velkým objemem textových

Více

Státní závěrečná zkouška z oboru Matematika a její použití v přírodních vědách

Státní závěrečná zkouška z oboru Matematika a její použití v přírodních vědách Státní závěrečná zkouška z oboru Matematika a její použití v přírodních vědách Ústní zkouška z oboru Náročnost zkoušky je podtržena její ústní formou a komisionálním charakterem. Předmětem bakalářské zkoušky

Více

Využití strojového učení k identifikaci protein-ligand aktivních míst

Využití strojového učení k identifikaci protein-ligand aktivních míst Využití strojového učení k identifikaci protein-ligand aktivních míst David Hoksza, Radoslav Krivák SIRET Research Group Katedra softwarového inženýrství, Matematicko-fyzikální fakulta Karlova Univerzita

Více

Tovek Server. Tovek Server nabízí následující základní a servisní funkce: Bezpečnost Statistiky Locale

Tovek Server. Tovek Server nabízí následující základní a servisní funkce: Bezpečnost Statistiky Locale je serverová aplikace určená pro efektivní zpracování velkého objemu sdílených nestrukturovaných dat. Umožňuje automaticky indexovat data z různých informačních zdrojů, intuitivně vyhledávat informace,

Více

Vzdělávací oblast: Matematika a její aplikace Vzdělávací obor: Matematický kroužek pro nadané žáky ročník 9.

Vzdělávací oblast: Matematika a její aplikace Vzdělávací obor: Matematický kroužek pro nadané žáky ročník 9. Vzdělávací oblast: Matematika a její aplikace Vzdělávací obor: Matematický kroužek pro nadané žáky ročník 9. Školní rok 2013/2014 Mgr. Lenka Mateová Kapitola Téma (Učivo) Znalosti a dovednosti (výstup)

Více

Dolování asociačních pravidel

Dolování asociačních pravidel Dolování asociačních pravidel Miloš Trávníček UIFS FIT VUT v Brně Obsah přednášky 1. Proces získávání znalostí 2. Asociační pravidla 3. Dolování asociačních pravidel 4. Algoritmy pro dolování asociačních

Více

ANALÝZA NÁKUPNÍHO KOŠÍKU SEMINÁŘ

ANALÝZA NÁKUPNÍHO KOŠÍKU SEMINÁŘ ANALÝZA NÁKUPNÍHO KOŠÍKU SEMINÁŘ 18.11.2012 Radim Tvardek, Petr Bulava, Daniel Mašek U&SLUNO a.s. I Sadová 28 I 702 00 Ostrava I Czech Republic PŘEDPOKLADY PRO ANALÝZU NÁKUPNÍHO KOŠÍKU 18.11.2012 Daniel

Více

Příprava dat v softwaru Statistica

Příprava dat v softwaru Statistica Příprava dat v softwaru Statistica Software Statistica obsahuje pokročilé nástroje pro přípravu dat a tvorbu nových proměnných. Tyto funkcionality přinášejí značnou úsporu času při přípravě datového souboru,

Více

2. přednáška z předmětu GIS1 Data a datové modely

2. přednáška z předmětu GIS1 Data a datové modely 2. přednáška z předmětu GIS1 Data a datové modely Vyučující: Ing. Jan Pacina, Ph.D. e-mail: jan.pacina@ujep.cz Pro přednášku byly použity texty a obrázky z www.gis.zcu.cz Předmět KMA/UGI, autor Ing. K.

Více

You created this PDF from an application that is not licensed to print to novapdf printer (http://www.novapdf.com)

You created this PDF from an application that is not licensed to print to novapdf printer (http://www.novapdf.com) Závislost náhodných veličin Úvod Předchozí přednášky: - statistické charakteristiky jednoho výběrového nebo základního souboru - vztahy mezi výběrovým a základním souborem - vztahy statistických charakteristik

Více

veličin, deskriptivní statistika Ing. Michael Rost, Ph.D.

veličin, deskriptivní statistika Ing. Michael Rost, Ph.D. Vybraná rozdělení spojitých náhodných veličin, deskriptivní statistika Ing. Michael Rost, Ph.D. Třídění Základním zpracováním dat je jejich třídění. Jde o uspořádání získaných dat, kde volba třídícího

Více

Modely vyhledávání informací 4 podle technologie. 1) Booleovský model. George Boole 1815 1864. Aplikace booleovské logiky

Modely vyhledávání informací 4 podle technologie. 1) Booleovský model. George Boole 1815 1864. Aplikace booleovské logiky Modely vyhledávání informací 4 podle technologie 1) Booleovský model 1) booleovský 2) vektorový 3) strukturní 4) pravděpodobnostní a další 1 dokumenty a dotazy jsou reprezentovány množinou indexových termů

Více

xrays optimalizační nástroj

xrays optimalizační nástroj xrays optimalizační nástroj Optimalizační nástroj xoptimizer je součástí webového spedičního systému a využívá mnoho z jeho stavebních bloků. xoptimizer lze nicméně provozovat i samostatně. Cílem tohoto

Více

Emergence chování robotických agentů: neuroevoluce

Emergence chování robotických agentů: neuroevoluce Emergence chování robotických agentů: neuroevoluce Petra Vidnerová, Stanislav Slušný, Roman Neruda Ústav Informatiky, AV ČR Kognice a umělý život VIII Praha 28. 5. 2008 Evoluční robotika: EA & neuronové

Více

DIGITÁLNÍ ARCHIV VZDĚLÁVACÍCH MATERIÁLŮ

DIGITÁLNÍ ARCHIV VZDĚLÁVACÍCH MATERIÁLŮ DIGITÁLNÍ ARCHIV VZDĚLÁVACÍCH MATERIÁLŮ Číslo projektu Číslo a název šablony klíčové aktivity Tematická oblast CZ.1.07/1.5.00/34.0963 IV/2 Inovace a zkvalitnění výuky směřující k rozvoji matematické gramotnosti

Více

Porovnání dvou výběrů

Porovnání dvou výběrů Porovnání dvou výběrů Menu: QCExpert Porovnání dvou výběrů Tento modul je určen pro podrobnou analýzu dvou datových souborů (výběrů). Modul poskytuje dva postupy analýzy: porovnání dvou nezávislých výběrů

Více

2 MATEMATIKA A JEJÍ APLIKACE UČEBNÍ OSNOVY

2 MATEMATIKA A JEJÍ APLIKACE UČEBNÍ OSNOVY 2 MATEMATIKA A JEJÍ APLIKACE UČEBNÍ OSNOVY 2. 2 Cvičení z matematiky Časová dotace 7. ročník 1 hodina 8. ročník 1 hodina 9. ročník 1 hodina Charakteristika: Předmět cvičení z matematiky doplňuje vzdělávací

Více

REGRESNÍ ANALÝZA V PROSTŘEDÍ MATLAB

REGRESNÍ ANALÝZA V PROSTŘEDÍ MATLAB 62 REGRESNÍ ANALÝZA V PROSTŘEDÍ MATLAB BEZOUŠKA VLADISLAV Abstrakt: Text se zabývá jednoduchým řešením metody nejmenších čtverců v prostředí Matlab pro obecné víceparametrové aproximační funkce. Celý postup

Více

Vyhodnocení 2D rychlostního pole metodou PIV programem Matlab (zpracoval Jan Kolínský, dle programu ing. Jana Novotného)

Vyhodnocení 2D rychlostního pole metodou PIV programem Matlab (zpracoval Jan Kolínský, dle programu ing. Jana Novotného) Vyhodnocení 2D rychlostního pole metodou PIV programem Matlab (zpracoval Jan Kolínský, dle programu ing. Jana Novotného) 1 Obecný popis metody Particle Image Velocimetry, nebo-li zkráceně PIV, je měřící

Více

10. Předpovídání - aplikace regresní úlohy

10. Předpovídání - aplikace regresní úlohy 10. Předpovídání - aplikace regresní úlohy Regresní úloha (analýza) je označení pro statistickou metodu, pomocí nichž odhadujeme hodnotu náhodné veličiny (tzv. závislé proměnné, cílové proměnné, regresandu

Více

Inovace CRM systémů využitím internetových zdrojů dat pro malé a střední podniky. Ing. Jan Ministr, Ph.D.

Inovace CRM systémů využitím internetových zdrojů dat pro malé a střední podniky. Ing. Jan Ministr, Ph.D. Inovace CRM systémů využitím internetových zdrojů dat pro malé a střední podniky Ing. Jan Ministr, Ph.D. I. Úvod Agenda II. Customer Intelligence (CI),zpracování dat z Internetu III. Analýza obsahu IV.

Více

Tomáš Karel LS 2012/2013

Tomáš Karel LS 2012/2013 Tomáš Karel LS 2012/2013 Doplňkový materiál ke cvičení z předmětu 4ST201. Na případné faktické chyby v této presentaci mě prosím upozorněte. Děkuji. Tyto slidy berte pouze jako doplňkový materiál není

Více

Úvod do mobilní robotiky AIL028

Úvod do mobilní robotiky AIL028 Pravděpodobnostní plánování zbynek.winkler at mff.cuni.cz, md at robotika.cz http://robotika.cz/guide/umor05/cs 12. prosince 2005 1 Co už umíme a co ne? Jak řešit složitější případy? Definice konfiguračního

Více

Rovinný průtokoměr. Diplomová práce Ústav mechaniky tekutin a termodynamiky, 2013. Jakub Filipský

Rovinný průtokoměr. Diplomová práce Ústav mechaniky tekutin a termodynamiky, 2013. Jakub Filipský Rovinný průtokoměr Diplomová práce Ústav mechaniky tekutin a termodynamiky, 2013 Autor: Vedoucí DP: Jakub Filipský Ing. Jan Čížek, Ph.D. Zadání práce 1. Proveďte rešerši aktuálně používaných způsobů a

Více

vzorek1 0.0033390 0.0047277 0.0062653 0.0077811 0.0090141... vzorek 30 0.0056775 0.0058778 0.0066916 0.0076192 0.0087291

vzorek1 0.0033390 0.0047277 0.0062653 0.0077811 0.0090141... vzorek 30 0.0056775 0.0058778 0.0066916 0.0076192 0.0087291 Vzorová úloha 4.16 Postup vícerozměrné kalibrace Postup vícerozměrné kalibrace ukážeme na úloze C4.10 Vícerozměrný kalibrační model kvality bezolovnatého benzinu. Dle následujících kroků na základě naměřených

Více

Řízení rizik. Ing. Petra Plevová. plevova.petra@klikni.cz http://plevovapetra.wbs.cz

Řízení rizik. Ing. Petra Plevová. plevova.petra@klikni.cz http://plevovapetra.wbs.cz Řízení rizik Ing. Petra Plevová plevova.petra@klikni.cz http://plevovapetra.wbs.cz Procesní řízení a řízení rizik V kontextu současných změn je třeba vnímat řízení jakékoli organizace jako jednoduchý,

Více

Reporting. Ukazatele je možno definovat nad libovolnou tabulkou Helios Orange, která je zapsána v nadstavbě firmy SAPERTA v souboru tabulek:

Reporting. Ukazatele je možno definovat nad libovolnou tabulkou Helios Orange, která je zapsána v nadstavbě firmy SAPERTA v souboru tabulek: Finanční analýza Pojem finanční analýza Finanční analýza umožňuje načítat data podle dimenzí a tyto součty dlouhodobě vyhodnocovat. Pojem finanční analýza není nejpřesnější, protože ukazatele mohou být

Více

DATA MINING KLASIFIKACE DMINA LS 2009/2010

DATA MINING KLASIFIKACE DMINA LS 2009/2010 DATA MINING KLASIFIKACE DMINA LS 2009/2010 Osnova co je to klasifikace typy klasifikátoru typy výstupu jednoduchý klasifikátor (1R) rozhodovací stromy Klasifikace (ohodnocení) zařazuje data do předdefinovaných

Více

MATEMATICKÝ SEMINÁŘ (volitelný a nepovinný předmět)

MATEMATICKÝ SEMINÁŘ (volitelný a nepovinný předmět) MATEMATICKÝ SEMINÁŘ (volitelný a nepovinný předmět) Charakteristika vyučovacího předmětu Obsahové vymezení Vzdělání v matematickém semináři je zaměřeno na: užití matematiky v reálných situacích osvojení

Více

SOLVER UŽIVATELSKÁ PŘÍRUČKA. Kamil Šamaj, František Vižďa Univerzita obrany, Brno, 2008 Výzkumný záměr MO0 FVT0000404

SOLVER UŽIVATELSKÁ PŘÍRUČKA. Kamil Šamaj, František Vižďa Univerzita obrany, Brno, 2008 Výzkumný záměr MO0 FVT0000404 SOLVER UŽIVATELSKÁ PŘÍRUČKA Kamil Šamaj, František Vižďa Univerzita obrany, Brno, 2008 Výzkumný záměr MO0 FVT0000404 1. Solver Program Solver slouží pro vyhodnocení experimentálně naměřených dat. Základem

Více

Inferenční statistika - úvod. z-skóry normální rozdělení pravděpodobnost rozdělení výběrových průměrů

Inferenční statistika - úvod. z-skóry normální rozdělení pravděpodobnost rozdělení výběrových průměrů Inferenční statistika - úvod z-skóry normální rozdělení pravděpodobnost rozdělení výběrových průměrů Pravděpodobnost postupy induktivní statistiky vycházejí z teorie pravděpodobnosti pravděpodobnost, že

Více

MANAŽERSKÉ ROZHODOVÁNÍ. Zpracoval Ing. Jan Weiser

MANAŽERSKÉ ROZHODOVÁNÍ. Zpracoval Ing. Jan Weiser MANAŽERSKÉ ROZHODOVÁNÍ Zpracoval Ing. Jan Weiser Obsah výkladu Rozhodovací procesy a problémy Dvě stránky rozhodování Klasifikace rozhodovacích procesů Modely rozhodování Nástroje pro podporu rozhodování

Více

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza 5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza 5.1 Vícerozměrná data a vícerozměrná rozdělení Při zpracování vícerozměrných dat se hledají souvislosti mezi dvěma, případně

Více

POŽADAVKY K SOUBORNÉ ZKOUŠCE Z MATEMATIKY

POŽADAVKY K SOUBORNÉ ZKOUŠCE Z MATEMATIKY POŽADAVKY K SOUBORNÉ ZKOUŠCE Z MATEMATIKY Bakalářský studijní program B1101 (studijní obory - Aplikovaná matematika, Matematické metody v ekonomice, Aplikovaná matematika pro řešení krizových situací)

Více

Matematika. ochrana životního prostředí analytická chemie chemická technologie Forma vzdělávání:

Matematika. ochrana životního prostředí analytická chemie chemická technologie Forma vzdělávání: Studijní obor: Aplikovaná chemie Učební osnova předmětu Matematika Zaměření: ochrana životního prostředí analytická chemie chemická technologie Forma vzdělávání: denní Celkový počet vyučovacích hodin za

Více

Funkce. Definiční obor a obor hodnot

Funkce. Definiční obor a obor hodnot Funkce Definiční obor a obor hodnot Opakování definice funkce Funkce je předpis, který každému číslu z definičního oboru, který je podmnožinou množiny všech reálných čísel R, přiřazuje právě jedno reálné

Více

UNIVERZITA OBRANY Fakulta ekonomiky a managementu. Aplikace STAT1. Výsledek řešení projektu PRO HORR2011 a PRO GRAM2011 3. 11.

UNIVERZITA OBRANY Fakulta ekonomiky a managementu. Aplikace STAT1. Výsledek řešení projektu PRO HORR2011 a PRO GRAM2011 3. 11. UNIVERZITA OBRANY Fakulta ekonomiky a managementu Aplikace STAT1 Výsledek řešení projektu PRO HORR2011 a PRO GRAM2011 Jiří Neubauer, Marek Sedlačík, Oldřich Kříž 3. 11. 2012 Popis a návod k použití aplikace

Více

Vysoká škola báňská technická univerzita Ostrava. Fakulta elektrotechniky a informatiky

Vysoká škola báňská technická univerzita Ostrava. Fakulta elektrotechniky a informatiky Vysoká škola báňská technická univerzita Ostrava Fakulta elektrotechniky a informatiky Bankovní účty (semestrální projekt statistika) Tomáš Hejret (hej124) 18.5.2013 Úvod Cílem tohoto projektu, zadaného

Více

2. RBF neuronové sítě

2. RBF neuronové sítě 2. RBF neuronové sítě Kapitola pojednává o neuronových sítích typu RBF. V kapitole je popsána základní struktura tohoto typu neuronové sítě. Poté následuje definice a charakteristika jednotlivých radiálně

Více

Přehled vhodných metod georeferencování starých map

Přehled vhodných metod georeferencování starých map Přehled vhodných metod georeferencování starých map ČVUT v Praze, katedra geomatiky 12. 3. 2015 Praha Georeferencování historická mapa vs. stará mapa georeferencování umístění obrazu mapy do referenčního

Více

MATURITNÍ TÉMATA Z MATEMATIKY

MATURITNÍ TÉMATA Z MATEMATIKY MATURITNÍ TÉMATA Z MATEMATIKY 1. Základní poznatky z logiky a teorie množin Pojem konstanty a proměnné. Obor proměnné. Pojem výroku a jeho pravdivostní hodnota. Operace s výroky, složené výroky, logické

Více

Normální (Gaussovo) rozdělení

Normální (Gaussovo) rozdělení Normální (Gaussovo) rozdělení Normální (Gaussovo) rozdělení popisuje vlastnosti náhodné spojité veličiny, která vzniká složením různých náhodných vlivů, které jsou navzájem nezávislé, kterých je velký

Více

DRG systém klasifikuje případy akutní hospitalizační péče do DRG skupin DRG skupiny = nákladově homogenní a klinicky příbuzné skupiny případů

DRG systém klasifikuje případy akutní hospitalizační péče do DRG skupin DRG skupiny = nákladově homogenní a klinicky příbuzné skupiny případů AGENDA Definice kvality DRG systému Statistické metody hodnocení kvality DRG klasifikace Identifikace nenáhodného rozložení případů Využití regresní analýzy nákladů při hledání důvodů v rozdílných nákladech

Více

Algoritmus. Přesné znění definice algoritmu zní: Algoritmus je procedura proveditelná Turingovým strojem.

Algoritmus. Přesné znění definice algoritmu zní: Algoritmus je procedura proveditelná Turingovým strojem. Algoritmus Algoritmus je schematický postup pro řešení určitého druhu problémů, který je prováděn pomocí konečného množství přesně definovaných kroků. nebo Algoritmus lze definovat jako jednoznačně určenou

Více

Optimalizace úvěrových nabídek. EmbedIT 7.11.2013 Tomáš Hanžl

Optimalizace úvěrových nabídek. EmbedIT 7.11.2013 Tomáš Hanžl Optimalizace úvěrových nabídek EmbedIT 7.11.2013 Tomáš Hanžl Obsah Spotřebitelský úvěr Popis produktu Produktová definice v HC Kalkulace úvěru Úloha nalezení optimálního produktu Shrnutí Spotřebitelský

Více

Zpracování náhodného výběru. Ing. Michal Dorda, Ph.D.

Zpracování náhodného výběru. Ing. Michal Dorda, Ph.D. Zpracování náhodného výběru popisná statistika Ing. Michal Dorda, Ph.D. Základní pojmy Úkolem statistiky je na základě vlastností výběrového souboru usuzovat o vlastnostech celé populace. Populace(základní

Více

ZLOMKY. Standardy: M-9-1-01 CELÁ A RACIONÁLNÍ ČÍSLA. Záporná celá čísla Racionální čísla Absolutní hodnota Početní operace s racionálními čísly

ZLOMKY. Standardy: M-9-1-01 CELÁ A RACIONÁLNÍ ČÍSLA. Záporná celá čísla Racionální čísla Absolutní hodnota Početní operace s racionálními čísly a algoritmů matematického aparátu Vyjádří a zapíše část celku. Znázorňuje zlomky na číselné ose, převádí zlomky na des. čísla a naopak. Zapisuje nepravé zlomky ve tvaru smíšeného čísla. ZLOMKY Pojem zlomku,

Více

Požadavky k opravným zkouškám z matematiky školní rok 2013-2014

Požadavky k opravným zkouškám z matematiky školní rok 2013-2014 Požadavky k opravným zkouškám z matematiky školní rok 2013-2014 1. ročník (první pololetí, druhé pololetí) 1) Množiny. Číselné obory N, Z, Q, I, R. 2) Absolutní hodnota reálného čísla, intervaly. 3) Procenta,

Více

Bayesovská klasifikace digitálních obrazů

Bayesovská klasifikace digitálních obrazů Výzkumný ústav geodetický, topografický a kartografický Bayesovská klasifikace digitálních obrazů Výzkumná zpráva č. 1168/2010 Lubomír Soukup prosinec 2010 1 Úvod V průběhu nedlouhého historického vývoje

Více

Klasifikace předmětů a jevů

Klasifikace předmětů a jevů Klasifikace předmětů a jevů 1. Úvod Rozpoznávání neboli klasifikace je základní znak lidské činnosti. Rozpoznávání (klasifikace) předmětů a jevů spočívá v jejich zařazování do jednotlivých tříd. Třídou

Více

6. Lineární regresní modely

6. Lineární regresní modely 6. Lineární regresní modely 6.1 Jednoduchá regrese a validace 6.2 Testy hypotéz v lineární regresi 6.3 Kritika dat v regresním tripletu 6.4 Multikolinearita a polynomy 6.5 Kritika modelu v regresním tripletu

Více

Management. Ing. Jan Pivoňka

Management. Ing. Jan Pivoňka Management Ing. Jan Pivoňka Stanovení osobní vize V souladu s kotvou Konkrétní představa Citový náboj Stimul pro aktivní jednání Krátkodobější cíle motivace Výjimky Jasná vize Pohodoví lidé Úspěch bez

Více

Tvar dat a nástroj přeskupování

Tvar dat a nástroj přeskupování StatSoft Tvar dat a nástroj přeskupování Chtěli jste někdy použít data v jistém tvaru a STATISTICA Vám to nedovolila? Jistě se najde někdo, kdo se v této situaci již ocitl. Není ale potřeba propadat panice,

Více

Identifikace. Jiří Jelínek. Katedra managementu informací Fakulta managementu J. Hradec Vysoká škola ekonomická Praha

Identifikace. Jiří Jelínek. Katedra managementu informací Fakulta managementu J. Hradec Vysoká škola ekonomická Praha Identifikace tématických sociálních sítí Katedra managementu informací Fakulta managementu J. Hradec Vysoká škola ekonomická Praha 2 Obsah prezentace Cíl Fáze řešení a navržené postupy Prototyp a výsledky

Více

fakulty MENDELU v Brně (LDF) s ohledem na disciplíny společného základu http://akademie.ldf.mendelu.cz/cz (reg. č. CZ.1.07/2.2.00/28.

fakulty MENDELU v Brně (LDF) s ohledem na disciplíny společného základu http://akademie.ldf.mendelu.cz/cz (reg. č. CZ.1.07/2.2.00/28. Základy lineárního programování Vyšší matematika, Inženýrská matematika LDF MENDELU Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem

Více

3.2 MATEMATIKA A JEJÍ APLIKACE (M) Charakteristika vzdělávací oblasti

3.2 MATEMATIKA A JEJÍ APLIKACE (M) Charakteristika vzdělávací oblasti 3.2 MATEMATIKA A JEJÍ APLIKACE (M) 51 Charakteristika vzdělávací oblasti Vzdělávací oblast matematika a její aplikace v základním vzdělávání je založena především na aktivních činnostech, které jsou typické

Více

Simulace. Simulace dat. Parametry

Simulace. Simulace dat. Parametry Simulace Simulace dat Menu: QCExpert Simulace Simulace dat Tento modul je určen pro generování pseudonáhodných dat s danými statistickými vlastnostmi. Nabízí čtyři typy rozdělení: normální, logaritmicko-normální,

Více

KALIBRACE. Definice kalibrace: mezinárodní metrologický slovník (VIM 3)

KALIBRACE. Definice kalibrace: mezinárodní metrologický slovník (VIM 3) KALIBRACE Chemometrie I, David MILDE Definice kalibrace: mezinárodní metrologický slovník (VIM 3) Činnost, která za specifikovaných podmínek v prvním kroku stanoví vztah mezi hodnotami veličiny s nejistotami

Více

Cvičná bakalářská zkouška, 1. varianta

Cvičná bakalářská zkouška, 1. varianta jméno: studijní obor: PřF BIMAT počet listů(včetně tohoto): 1 2 3 4 5 celkem Cvičná bakalářská zkouška, 1. varianta 1. Matematická analýza Najdětelokálníextrémyfunkce f(x,y)=e 4(x y) x2 y 2. 2. Lineární

Více

3. úloha - problém batohu metodami branch & bound, dynamické programování, heuristika s testem

3. úloha - problém batohu metodami branch & bound, dynamické programování, heuristika s testem ČVUT FEL X36PAA - Problémy a algoritmy 3. úloha - problém batohu metodami branch & bound, dynamické programování, heuristika s testem Jméno: Marek Handl Datum: 1. 1. 2009 Cvičení: Pondělí 9:00 Zadání Naprogramujte

Více

11 Analýza hlavních komponet

11 Analýza hlavních komponet 11 Analýza hlavních komponet Tato úloha provádí transformaci měřených dat na menší počet tzv. fiktivních dat tak, aby většina informace obsažená v původních datech zůstala zachována. Jedná se tedy o úlohu

Více

Triangulace. Význam triangulace. trojúhelník je základní grafický element aproximace ploch předzpracování pro jiné algoritmy. příklad triangulace

Triangulace. Význam triangulace. trojúhelník je základní grafický element aproximace ploch předzpracování pro jiné algoritmy. příklad triangulace Význam triangulace trojúhelník je základní grafický element aproximace ploch předzpracování pro jiné algoritmy příklad triangulace Definice Triangulace nad množinou bodů v rovině představuje takové planární

Více

VÝUKOVÝ MATERIÁL. Bratislavská 2166, 407 47 Varnsdorf, IČO: 18383874 www.vosassvdf.cz, tel. +420412372632 Číslo projektu

VÝUKOVÝ MATERIÁL. Bratislavská 2166, 407 47 Varnsdorf, IČO: 18383874 www.vosassvdf.cz, tel. +420412372632 Číslo projektu VÝUKOVÝ MATERIÁL Identifikační údaje školy Vyšší odborná škola a Střední škola, Varnsdorf, příspěvková organizace Bratislavská 2166, 407 47 Varnsdorf, IČO: 18383874 www.vosassvdf.cz, tel. +420412372632

Více

LINEÁRNÍ REGRESE. Lineární regresní model

LINEÁRNÍ REGRESE. Lineární regresní model LINEÁRNÍ REGRESE Chemometrie I, David MILDE Lineární regresní model 1 Typy závislosti 2 proměnných FUNKČNÍ VZTAH: 2 závisle proměnné: určité hodnotě x odpovídá jediná hodnota y. KORELACE: 2 náhodné (nezávislé)

Více

Cvičení z matematiky - volitelný předmět

Cvičení z matematiky - volitelný předmět Vyučovací předmět : Období ročník : Učební texty : Cvičení z matematiky - volitelný předmět 3. období 9. ročník Sbírky úloh, Testy k přijímacím zkouškám, Testy Scio, Kalibro aj. Očekávané výstupy předmětu

Více

Gymnázium Vysoké Mýto nám. Vaňorného 163, 566 01 Vysoké Mýto

Gymnázium Vysoké Mýto nám. Vaňorného 163, 566 01 Vysoké Mýto Gymnázium Vysoké Mýto nám. Vaňorného 163, 566 01 Vysoké Mýto Registrační číslo projektu Šablona Autor Název materiálu CZ.1.07/1.5.00/34.0951 III/2 INOVACE A ZKVALITNĚNÍ VÝUKY PROSTŘEDNICTVÍM ICT Mgr. Jana

Více

31. 3. 2014, Brno Hanuš Vavrčík Základy statistiky ve vědě

31. 3. 2014, Brno Hanuš Vavrčík Základy statistiky ve vědě 31. 3. 2014, Brno Hanuš Vavrčík Základy statistiky ve vědě Motto Statistika nuda je, má však cenné údaje. strana 3 Statistické charakteristiky Charakteristiky polohy jsou kolem ní seskupeny ostatní hodnoty

Více

3/8.4 PRAKTICKÉ APLIKACE PŘI POUŽÍVÁNÍ NEJISTOT

3/8.4 PRAKTICKÉ APLIKACE PŘI POUŽÍVÁNÍ NEJISTOT PROKAZOVÁNÍ SHODY VÝROBKŮ část 3, díl 8, kapitola 4, str. 1 3/8.4 PRAKTICKÉ APLIKACE PŘI POUŽÍVÁNÍ NEJISTOT Vyjadřování standardní kombinované nejistoty výsledku zkoušky Výsledek zkoušky se vyjadřuje v

Více

676 + 4 + 100 + 196 + 0 + 484 + 196 + 324 + 64 + 324 = = 2368

676 + 4 + 100 + 196 + 0 + 484 + 196 + 324 + 64 + 324 = = 2368 Příklad 1 Je třeba prověřit, zda lze na 5% hladině významnosti pokládat za prokázanou hypotézu, že střední doba výroby výlisku je 30 sekund. Přitom 10 náhodně vybraných výlisků bylo vyráběno celkem 540

Více

TEORIE ZPRACOVÁNÍ DAT

TEORIE ZPRACOVÁNÍ DAT Vysoká škola báňská - Technická univerzita Ostrava Fakulta elektrotechniky a informatiky TEORIE ZPRACOVÁNÍ DAT pro kombinované a distanční studium Jana Šarmanová Ostrava 2003 Jana Šarmanová, 2003 Fakulta

Více