Vysoká škola ekonomická v Praze. Fakulta managementu v Jindřichově Hradci Katedra exaktních metod. Diplomová práce Bc.

Rozměr: px
Začít zobrazení ze stránky:

Download "Vysoká škola ekonomická v Praze. Fakulta managementu v Jindřichově Hradci Katedra exaktních metod. Diplomová práce. 2013 Bc."

Transkript

1 Vysoká škola ekonomická v Praze Fakulta managementu v Jindřichově Hradci Katedra exaktních metod Diplomová práce 2013 Bc. Pavel Stejskal

2 Vysoká škola ekonomická v Praze Fakulta managementu v Jindřichově Hradci Katedra exaktních metod Znalostní nadstavba BI platformy ERP systému: principy a implementace Vypracoval: Vedoucí práce: Bc. Pavel Stejskal doc. Ing. Dr. Jan Voráček, CSc. Rok vypracování: 2013

3 Čestné prohlášení Prohlašuji, že jsem tuto diplomovou práci vypracoval samostatně. Veškeré použité podklady, ze kterých jsem čerpal informace, jsou uvedeny v seznamu použité literatury a citovány v textu podle normy ČSN ISO 690. V Jindřichově Hradci dne Podpis:

4 Poděkování Touto cestou bych rád poděkoval vedoucímu mé diplomové práce doc. Ing. Dr. Janu Voráčkovi, CSc., za motivaci k tématu, náměty, cenné odborné rady a připomínky, které mi ochotně poskytl v průběhu zpracování této práce.

5 Abstrakt Tato práce se zabývá otázkou rozšíření provozních ERP systémů o znalostní nadstavbu, kterou lze implementovat do existujícího Business Intelligence řešení. Cílem je uvést nástroje a metody znalostního managementu v kontextu s tradičními prostředky Business Intelligence. Dále je navržen koncept obchodní strategie a implementační filozofie pro poskytovatele znalostní vrstvy. Koncept je ilustrován na modelové situaci mezi výrobní firmou a dodavatelem znalostního nástroje. Koncept zahrnuje fáze typické pro softwarový projekt: prototyp modelu, rozšíření modelu, validaci a integraci do zákazníkova BI řešení. Klíčová slova: Business Intelligence, Data Mining, znalostní management, analytické nástroje, procesní management, diskrétní události, systémová dynamika, agentově orientované modelování, deskriptivní analytika, prediktivní analytika, preskriptivní analytika Abstract The thesis is focused on extending standard ERP systems with Knowledge Management layer and its integration into existing Business Intelligence solution. The main goal is to explain possibilities of Knowledge Management tools and methods in contrast of traditional Business Intelligence analytical tools. Furthermore is designed concept of business strategy and implementation philosophy for provider of Knowledge layer. This concept is illustrated on model situation between manufacturer (customer) and Knowledge layer provider. Concept is involving standard phases such as Knowledge model prototype, model extending, model validation and its integration into customer s BI analytical layer. Keywords: Business Intelligence, Data Mining, Knowledge Management, Analytical tools, Process Management, Discrete Event, System Dynamics, Agent Based Modeling, Descriptive Analytics, Predictive Analytics, Prescriptive Analytics

6 Obsah Úvod Business Intelligence Definice Business Intelligence Postavení Business Intelligence v rámci IS/ICT Business Intelligence architektura Zdroje dat Data Warehouse Business Intelligence analytická vrstva BI dashboard Data Mining Metodologie Data Mining Pochopení obchodní činnosti (Business Understanding) Pochopení dat (Data Understanding) Příprava dat (Data Preparation) Modelování (Modeling) Vyhodnocení (Evaluation) Nasazení (Deployment) Techniky Data Mining Analýza asociací Klasifikace a prediktivní modelování Regrese Neuronová síť Rozhodovací strom Shluková analýza (clustering) Data Mining hodnocení modelů Matice záměn ROC křivka Křivka navýšení (lift chart) Occamova břitva Zhodnocení datově orientované analytiky Knowledge management Koncept znalostí... 40

7 3.1.1 Typy znalostí Definice pojmu Knowledge Management Systémové myšlení a znalostní management Dynamické řízení organizace Transformace k procesnímu řízení Nástroje znalostního managementu Tvorba znalostí (Knowledge Engineering) Základní modelovací jazyky učící se organizace Validace a verifikace modelu Aplikační část implementace znalostního modulu do BI Výrobní společnost ABC stroj, s. r. o. (klient) Potřeba řešení situace ve společnosti ABC stroj, s. r. o Softwarová společnost Data XYZ, s. r. o. (dodavatel) Představení nástrojů znalostního managementu zákazníkovi Interaktivní prototyp modelu diskrétních událostí Nástroj pro tvorbu prototypu modelu Vývoj prototypu modelu Ovládání simulačního modelu Úprava a zdokonalení modelu pro reálné nasazení Validace a verifikace znalostního modelu Verifikace znalostního modelu pomocí Data Mining modelu Dostupné nástroje pro Data mining Integrace znalostního modelu do existujícího BI řešení Další existující nástroje pro sestavení modelu Rozšíření znalostního modelu Náklady řešení projektu Posouzení efektivnosti Závěr Použitá literatura a další zdroje Seznam obrázků a schémat Seznam tabulek Seznam použitých zkratek... 96

8 Úvod Oblast Business Intelligence je v současné době velmi aktuální téma. Každá společnost a organizace generuje svou činností obrovské množství dat a informací, které lze využít k procesu měření vlastní obchodní činnosti, optimalizace procesů či hledání nových příležitostí pro organizaci. Ne vždy ale dochází ke smysluplnému využití těchto informací. Navíc s postupným nárůstem zařízení a platforem dále roste množství vyprodukovaných dat a jsme svědky příchodu éry velkých dat 1. Výzkum společnosti IDC ukazuje, že i ve složitém ekonomickém období (globální finanční krize) je oblast Business Intelligence jedna z mála oblastní informační technologií, která není zasažena krácením rozpočtu a snižováním nákladů. Důvod je v uvědomění si, že BI dokáže nabídnout odpovědi na otázky z mnoha klíčových obchodních a ekonomických oblastí. Například růst cash-flow, zlepšování schopnosti reakce na vývoj trhu, zvyšování spokojenosti a loajality zákazníka, snižování provozních nákladů a zvyšování produktivity zaměstnanců. Řešení Business Intelligence je hlavně určeno manažerům a ti by měli z tohoto zdroje primárně těžit. Díky tomu musí být zapojeni do BI procesu, nejedná se o jednorázové řešení. Pokud není BI pojato jako proces, který roste společně s potřebami organizace, nastává zde problém. Manažeři, jako hlavní beneficienti BI, musí být do projektu zapojeni hned od začátku, zaštiťovat jej a zajišťovat jeho realizaci, aby přinesl praktický užitek. BI nikdy není a nebude jednorázovým konečným řešením. (VAVRA 2012) Účelem je tedy vytvořit takové prostředí, které pomůže manažerům sledovat procesy, dozvídat se více informací o vlastím provozu, dokázat předvídat případná rizika. Na základě těchto informací by měl být schopen manažer modifikovat nevyhovující proces, případně upravit a přizpůsobit celý business model. Už z tohoto předpokladu vyplývá, že Business Intelligence je potřeba budovat postupně s potřebami organizace a zároveň se snažit informace zasadit do širšího kontextu. Analytická a konzultační společnost Gartner uvádí jako jeden z deseti klíčových trendů pro rok 2012 novou generaci analytických nástrojů. Dle současné praxe využívá v organizaci analytické nástroje pouze úzký okruh pracovníků. Ti, kdo analytické výstupy potřebují, typicky nerozumějí analytickým aplikacím a procesům a jsou závislí na specialistech. Těch se však v organizaci vyskytuje jen málo a bývají přetíženi požadavky, jejichž řešení však představuje jen z malé části kvalifikovanou práci. Hlavním cílem rozvoje analytiky v organizaci je rozšířit okruh těch, kdo mají analytické výstupy k dispozici. Mezi další cíle patří snaha přeorientovat analytiku z pouhého poskytování informací v nástroj, který přímo podporuje business aktivity strategické 1 Velká data (Big Data) společnost Gartner za big data označuje soubory dat, jejichž velikost je mimo schopnosti zachycovat, spravovat a zpracovávat data běžně používanými softwarovými prostředky v rozumném čase 1

9 plánování, operativní rozhodování nebo optimalizaci v dodavatelském řetězci. K tomuto účelu je potřeba využívat nové okruhy dat. (PŘÍKLENK 2012, s. 20) V kontextu se znalostní ekonomikou je potřeba pracovat se znalostmi jako s možnou konkurenční výhodou. Problémem je ovšem formalizace a případné modelování znalostí. "Znalost je informace, která je organizována a analyzována, aby se stala srozumitelnou a použitelnou k řešení problému nebo k rozhodování." (BUREŠ 2007, s. 27) Cílem práce je ukázat nástroje a metody znalostního managementu (KM) v kontextu stávajících prostředků Business Intellingece. Dále provést analýzu obchodní politiky a implementační filozofie poskytovatele znalostní vrstvy v souvislosti s existující BI infrastrukturou. Dílčí témata: rychlé vytvoření prototypu modelu řešené úlohy pomocí jazyka Discrete Event, s následnou horizontální a vertikální expanzí. Základním požadavkem je agilita, atraktivita a podpora ze strany dodavatele Knowledge Management vrstvy, opakované využití výstupů analýzy stávajících ERP/BI řešení pro pevně daný back-end, tvořený pomocí Agent based (AB), System Dynamics (SD) a Discrete Event (DE) modelování, role dat a výstupů datových analýz (statistických i Data Mining) při tvorbě a validaci znalostní vrstvy, role expertů a týmů při validaci prototypu modelu i jeho následně rozšířené varianty, problematika interaktivního dynamického uživatelského rozhraní, zhodnocení účelnosti a účinnosti implementace znalostní vrstvy včetně orientační analýzy nákladů. Struktura práce se skládá z teoretické části, kde je v základním rozsahu vysvětlena problematika oblastí Business Intelligence, Data Mining a znalostního managementu. Následná aplikační část řeší jednotlivá dílčí témata. Tato témata jsou ilustrována na ucelené modelové situaci, která představuje řešení projektu dodávky znalostní vrstvy do prostředí výrobní firmy. Tento úkol je řešen pomocí modelu diskrétních událostí a následně je provedena integrace do existujícího Business Intellingece řešení, kterým zákazník disponuje. 2

10 1 Business Intelligence Tato část popíše v základní míře oblast Business Intelligence, která tvoří nadstavbu provozních systémů ve firmách. V jednotlivých kapitolách bude vysvětlena celá architektura BI řešení. Tato oblast představuje výchozí situaci pro pozdější integraci znalostní vrstvy. 1.1 Definice Business Intelligence Termín Business Intelligence (BI) poprvé v roce 1989 definoval Howard Dresner ze společnosti Gartner Group jako množinu konceptů a metodik, které zlepšují rozhodovací proces za použití metrik nebo systémů založených na metrikách. Je to proces transformace dat na informace a převod těchto informací na poznatky prostřednictvím objevování. Účelem procesu je konvertovat velké objemy dat na poznatky, které jsou potřebné pro koncového uživatele. Tyto poznatky můžeme potom efektivně využít například v procesu rozhodování. (LACKO 2009) Cílem moderního Business Intelligence systému je poskytnout informace pro lepší rozhodování manažerů, proto jej lze nazvat systémem pro podporu rozhodování (Decision Support System DSS). Nelze jej však zaměňovat s pojmem Competitive Intelligence, přestože také patří mezi systémy podpory rozhodování. Úkolem Competitive Intelligence je definování, shromažďování a analyzování dat o produktech, zákaznících a konkurenci. Na základě těchto informací tvoří manažeři strategická rozhodnutí. Je nutné však dodat, že Competitive Intelligence stojí na etických a legálních principech, na rozdíl od průmyslové špionáže, která je ilegální. Competitive Intelligence je tedy zaměřeno hlavně na analýzu externích dat, naopak Business Intelligence je zaměřeno na analyzování dat interních. V současné době není definice Business Intelligence zcela sjednocená. BI řešení většinou využívá shromážděná data z datového skladu (Data warehouse DW), nicméně není to podmínkou. Stejně tak Data warehouse nemusí vždy nutně sloužit pro aplikace Business Intelligence. Na rozdělení konceptu Business Intelligence a Data warehouse používá společnost Forrester Research dvě definice. První široká definice zní: "Business Intelligence je sada metodologií, procesů, architektur a technologií, které transformují surová (primární) data do smysluplných a užitečných informací, za účelem získat lepší přehled a zajistit efektivnější strategická, taktická a operativní rozhodnutí." (EVELSON 2008) Při použití této definice BI řešení zahrnuje mimo jiné datovou integraci (Data Integration), kvalitu dat (Data Quality), skladování dat (Data Warehousing), řízení kmenových dat (Master Data Management), analitiku textu a obsahu (Text and Content Analytics) a mnoho dalších technologií, které lze zahrnout do segmentu informačního managementu. Z tohoto důvodu Forrester Research uvádí přípravu dat a využití dat jako dva oddělené, přesto těsně spjaté segmenty Business Intelligence architektury. Na zákládě tohoto rozdělení později Forrester Research uvedl užší definici BI trhu, kterou odkazuje pouze na vrchní vrstvu BI architektury, tedy analytiku, reporty a dashboardy. (EVELSON 2010) 3

11 Pro účely této práce bude využita širší definice, tak jak ji definuje Česká společnost pro systémovou integraci. Business Intelligence je sada procesů, aplikací a technologií, jejichž cílem je účinně a účelně podporovat rozhodovací procesy ve firmě. Podporují analytické a plánovací činnosti podniků a organizací a jsou postaveny na principech multidimenzionálních pohledů na podniková data. Aplikace BI pokrývají analytické a plánovací funkce většiny oblastí podnikového řízení, tj. prodeje, nákupu, marketingu, finančního řízení, controllingu, majetku, řízení lidských zdrojů, výroby, IS/ICT apod. Do nástrojů a aplikací Business Intelligence se zahrnují: produkční, zdrojové systémy, dočasná úložiště dat (DSA - Data Staging Area), operativní úložiště dat (ODS - Operational Data Store), transformační nástroje (ETL - Extraction Transformation Loading), integrační nástroje (EAI - Enterpreis Application Integration), datové sklady (DWH - Data Warehouse), datová tržiště (DMA - Data Marts), OLAP, reporting, manažerské aplikace (EIS - Executive Information Systems), dolování dat (Data Mining), nástroje pro zajištění kvality dat, nástroje pro správu metadat, ostatní. (NOVOTNÝ et. al. 2005, s. 19) 1.2 Postavení Business Intelligence v rámci IS/ICT Každý podnik a organizace tvoří množství dat. Většinou jsou tato data zachycena formou transakcí a jedná se o strukturovaná data. Kromě strukturovaných dat produkuje podnik také data nestrukturovaná, mezi které patří například dokumenty v binární formě, hudební obsah (mp3) a videa. Tato data jsou pro své obtížné zpracování a využití většinou doplněna o data strukturovaná, nicméně v rámci této práce se budeme zabývat pouze daty strukturovanými. Data, která podnik generuje, vznikají jednak činností pracovníků a dále automatizovaným provozem různých systémů. Tento fakt je důležitý zejména v oblasti zpracování dat z primárních systémů, kdy mohou nastat problémy s chybovostí nebo konzistencí dat. Tento problém bude blíže probrán v příslušné kapitole BI architektury. Vygenerovaná data transakční povahy jsou většinou zaznamenána v různých systémech. Může se jednat o různé legacy systémy, které jsou zastaralé technologicky a nejsou dále využívány. Přesto mohou mít důležitý vliv z pohledu BI. Dále se může jednat o systémy, 4

12 které mají za úkol sběr dat z různých oblastí a zároveň fungují na různých platformách. V ideálním případě se však jedná o ERP systém 2, který typicky funguje ve spojení s relačním databázovým systémem. ERP systém tedy zaznamenává data s běžného provozu, musí být rychlý a stabilní. Nasazením relačního databázového systému přináší výhody v ohledu na rychlost a spolehlivost, ale pro složitější analýzy se nehodí. Jedním ze základních argumentů proč na ERP systém nasadit Business Intelligence řešení je právě analytika. Pokud by se prováděla analytika přímo na ERP v relační databázi, docházelo by k vysokému zatížení systému a koncový uživatel by se potýkal s velmi dlouho dobou odezvy systému. Nehledě na to, že v některých případech může ERP systém vytěžovat výpočetní jednotku svým provozem téměř k 100 % výkonu, tím by jakýkoliv pokus a analytický dotaz systém přetížil. Právě z tohoto důvodu přichází na řadu BI řešení, které nabízí řešení všech výše zmíněných problémů a možností. Úlohu BI řešení v rámci IS/ITC podniku dobře vystihuje obrázek 1. Obr. 1 Postavení BI v aplikační architektuře IS/ICT (NOVOTNÝ et. al. 2005, s. 20) 1.3 Business Intelligence architektura Tato část se zaměří na popis jednotlivých nástrojů a technologií patřících pod Business Intelligence. Je důležité popsat jednotlivé komponenty, aby bylo možné tyto části BI řešení 2 ERP systém Enterprise Resource Planning je informační systém, který svým rozsahem pokrývá většinu procesů souvisejících s provozem organizace. Typicky integruje oblasti výroby, logistiky, distribuce, správy majetku, prodej, fakturace, účetnictví. V současné době někteří výrobci účetních systémů označují svoje nejvyšší verze programů jako ERP systém. Jedná se však o hotová řešení, proto je nutné vybírat podle možnosti úpravy podnikovým procesům na míru není účelem, aby se podnik přizpůsoboval ERP systému. 5

13 efektivně propojit s nástroji znalostního managementu. Architekturu BI řešení prezentuje obrázek 2. Obr. 2 Architektura Business Intelligence (autor podle Pentaho) V dalších kapitolách budou popsána jednotlivá patra Business Intelligence, od spodní části směrem nahoru. Některé části budou popsány jen v nezbytně nutné míře, větší důraz bude kladem na analytickou část Zdroje dat Jak již bylo zmíněno výše, každý podnik a organizace generuje množství dat. Podle povahy své činnosti se tato data vyskytují v různých systémech. Data se mohou vyskytovat v samostatně fungujících systémech (např. docházkový proprietární systém 3 ), dále ve formě dat ze starších legacy systémů, lokální data (např. CSV 4 soubory s kontakty klientů). Další zajímavou možností jak získat data je OLAP 5, zdrojový systém v tomto případě tvoří další 3 Proprietární systém jedná se o systém, který nemusí mít dostupné zdrojové kódy, z čehož plyne omezená možnost úpravy zápisu dat tam, kam potřebujeme. 4 CSV Comma separated values, hodnoty odděleny čárkami, jednoduchý souborový formát určený pro výměnu tabulkových dat. 5 OLAP Online Analytical Processing, technologie uložení dat, viz samostatná kapitola dále 6

14 analytický systém. V organizaci by teoreticky samotné BI mohlo vracet zpracovaná data zpět do jiných systémů (transformovaná, přepočítaná aj.). Ideálním stavem z pohledu dat je ERP systém (OLTP) integrující veškeré procesy a aktivity. Mezi nejznámější dodavatele ERP systémů patří SAP (SAP AG Německo), Microsoft (USA), Oracle (USA), Epicor (USA), Infor (USA) a UFIDA (Čína). Všichni výrobci působí globálně, UFIDA oznámila expanzi na evropský i americký trh na konci roku 2011 a v současné době dotahuje nejsilnější SAP Data Warehouse Data z různých zdrojových systémů je nutné pro potřeby analytiky někde uchovat, zkontrolovat, očistit a případně upravit (transformovat). K těmto operacím slouží systém zvaný Data Warehouse. Definice pojmu Data Warehouse (DW či DWH) zní následovně. Data Warehouse je systém, který periodicky načítá a konsoliduje data ze zdrojových systémů a ukládá je do dimenzionálního nebo normalizovaného datového úložiště. DW většinou udržuje historická data v řádu let a je využíván jako zdroj dat pro Business Intelligence či jiné analytické činnosti. Typicky je aktualizován v dávkách, ne při každé provedené transakci ve zdrojovém systému. (RAINARDI 2008) Koncept datového skladu vzniká v roce 1988 a pod názvem Information Warehouse jej zavedli vědci z IBM Barry Devlin a Paul Murphy. V roce 1992 se konceptu chopil W. H. Bill Inmon a vydal publikaci Building the Data Warehouse. (HAYES 2002) V roce 1996 publikoval Ralp Kimball knihu The Data Warehouse Toolkit. Tato dvě jména jsou v oboru DW nejznámější a dělí přístup k datovému skladu na dva tábory. Inmon je zastáncem uchování dat v normalizované formě (3NF 6 ), naopak Kimball je zastáncem úložiště v dimenzionální formě. V praxi se můžeme častěji setkat právě s dimenzionálním modelem. Jak uvádí V. Rainardi (2008), pokud budeme mít datové úložiště v normalizované formě, stále jej bude nutné pro potřeby analytiky převést do dimenzionální formy. Normalizovaná forma má výhodu ve snadnější integraci z více zdrojových systémů. Aktuální trend in-memory computing 7 se snaží potřebu dimenzionální formy zmírnit, viz poslední verze Microsoft SQL Server 2012 (xvelocity) a SAP HANA. Společnost Gartner uvádí tento trend in-memory computing jako velmi důležitý a předpokládá masivní změny v IT, zejména v architektuře databázových systémů. (PŘÍKLENK 2012, s. 20) Architekturu datového skladu dobře ilustruje následující obrázek NF třetí normální forma je struktura databáze, která je optimální pro OLTP systémy a minimalizuje redundanci dat. 7 In-memory computing data jsou ukládána do paměti RAM pod vysokou kompresí, odpadá nutnost multidimenzionálního modelu. U Microsoftu existuje jako self-service BI pro ad-hoc analýzy v MS Excel (PowerPivot rozšíření) či v korporátním BI jako Analysis Services tabular mode. 7

15 Obr. 3 Diagram Data Warehouse systému (RAINARDI 2008) Transformační nástroje (ETL) Získávání dat ze zdrojového systému je známé jako ETL (Extract Transform Load) systém. Tento systém tvoří sada procesů, které získávají data ze zdrojového systému, transformují je a nahrávají do cílového systému. Transformace může být použita pro přizpůsobení formátu a kritériím cílového systému, pro odvození nových hodnot (např. kalkulace), nebo pro validování dat ze zdrojového systému. ETL nemusí sloužit pouze pro pumpování dat do datového skladu, používá se všeobecně pro jakékoliv přesuny dat. Dle schematického obrázku 3 je zřejmé, že ETL se vypořádá i s chybně zadanými údaji. Pokud například pracovník splete zadané údaje či je vůbec nevyplní, dochází při procesu ETL k auditu dat. Následně pokud data neprojdou auditem, přenese je proces do Data Quality úložiště, chyby se následně reportují a po nutné korekci ve zdrojovém systému budou připravena k novému načítání pomocí ETL. Kontrola a audit se zapisují do úložiště meta dat, což jsou jednoduše řečeno data o datech. Příkladem meta dat je zmíněná kontrola dat. Původně vyřazená transakce dostane příznak nevalidní, na což reaguje ETL proces novým pokusem o načtení (a audit). Meta data se používají často i pro interní údaje všech procesů týkajících se ETL, při dávkovém zpracování se může vyskytnout chyba a dávka není kompletně zpracována. Proto na základě meta dat proces zná poslední dávku, která byla v pořádku načtena do datového skladu a nenastane problém s duplicitou dat. Meta data mohou nést jakýkoliv další doplňující údaj o datech, jako mají strukturu apod. 8

16 Dočasná úložiště dat (DSA) Dočasné úložiště slouží pro transformaci a přípravu získaných dat ze zdrojového systému. Jedná se o pracovní úložiště, které je před každou dávkou prázdné. Na základě úspěšně provedených operací se může dále načíst do datového skladu. Dočasné úložiště je užitečné z hlediska co nejkratšího vytížení zdrojového systém. V případě velkých objemů dat může pouze samotné načítání dat ze zdrojového systému zabrat desítky minut, pokud by se ještě při tomto procesu zároveň prováděly další operace (modifikace, hledání duplicit apod.), tak by spojení mezi zdrojovým systémem a datovým skladem trvalo mnohem déle Dimenzionální datové úložiště (DDS) Data Warehouse systém načítá zdrojová data z transakčních systémů a vkládá je do dimenzionálního úložiště. Kromě dimenzionálního úložiště je může ukládat i do normalizovaného, což by bylo v souladu s Inmonem. Dle jeho argumentů datový sklad slouží celé organizaci a existuje mnoho potenciálních uživatelů, kteří budou data z DW potřebovat. Pokud se data v datovém skladu udržují v normalizované formě, přináší to větší flexibilitu v rámci úprav datového modelu. Podle Inmona je Kimballův přístup dimenzionálního úložiště nevhodný z toho důvodu, že vzniklý dimenzionální model konkrétního datového tržiště vznikl dle požadavků konkrétní skupiny (oddělení) a není flexibilně použitelný pro jinou skupinu v organizaci. Inmonův koncept přistupuje k datovým tržištím jako k vzájemně závislým, při tvorbě modelu je tedy nutné plánovat v dlouhodobé perspektivě a pokročilejším způsobem. Tento přístup vyžaduje vyšší investice, globální analýzu a kooperaci všech oddělení v organizaci. (INMON 2005, s. 127) Z teoretického hlediska se zdá Inmonův přístup lepší, v praxi je ale více zastoupen Kimballův přístup konglomerátu nezávislých tržišť. Je to dáno inkrementálním přístupem při tvorbě datového skladu, kdy datová tržiště vznikala jako odpověď na informační problém konkrétního oddělení. Při postupu dle Kimballa zákazník dostane první výsledky velmi brzy a náklady na vytvoření takového DW jsou nižší v porovnání s přístupem Inmona. Dimenzionální datové úložiště je tedy databáze, která obsahuje datová tržiště (Data Marts) v dimenzionální podobě. Dimenzionální datové tržiště je skupina souvisejících faktových tabulek a jím korespondujících dimenzí. Obsahuje měřené hodnoty business událostí a tyto hodnoty jsou kategorizovány jejich dimenzemi. Dimenzionální úložiště je v denormalizované formě a dimenze jsou konformní. To znamená, že dimenze jsou ve stejné dimenzionální tabulce, nebo jedna je podmnožinou druhé. Dimenze A je podmnožinou dimenze B, pokud všechny sloupce dimenze A existují v dimenzi B a všechny řádky dimenze A existují v dimenzi B. (RAINARDI 2008, s. 7) Dimenzionální úložiště může být fyzicky implementováno několika schématy: hvězda (star) vločka (snowflake) galaxie (galaxy), také známé pod pojmem fact constellation schema 9

17 Schéma hvězdy ilustruje obrázek 4. Jedná se o nejjednodušší schéma a má výhodu ve snadnějším zpracování pomocí ETL procesu. Navíc z pohledu databázového systému nejrychlejší, minimalizuje se počet spojování tabulek (JOIN). Obr. 4 Schéma hvězdy v dimenzionálním úložišti (RAINARDI 2008, s. 8) Toto schéma dobře vysvětluje, jakým způsobem jsou data fyzicky uložena. Hvězda se skládá z faktové tabulky, která obsahuje v tomto případě atributy order_id, line_order_id, unit_price, quantity, cost, margin. Faktová tabulka fact_sales_order_item tedy obsahuje záznamy sledovaných hodnot (míry) a zároveň obsahuje cizí klíče (FK) dimenzionálních tabulek (s prefixem dim). Schéma vločky je podobné hvězdě s tím rozdílem, že samotná dimenze obsahuje další cizí klíč další tabulky. Toto schéma ilustruje obrázek 5. 10

18 Obr. 5 Schéma vločky v dimenzionálním úložišti (Babu 2010) U schématu vločky může být dimenze propojena se subdimenzí, účelem je minimalizovat redundanci dat. Dimenze tedy může být v normalizované (3NF) formě. Některé analytické aplikace mohou se schématem vločky pracovat lépe než s hvězdicovým. Poslední schéma galaxie představuje dvě a více faktových tabulek, které sdílejí dimenze. Výhodou tohoto schématu je, že díky využití více faktových tabulek můžeme lépe zachytit konkrétní proces v podniku. Kontrast popisovaného dimenzionálního úložiště je patrný z obrázku 6, který představuje klasický normalizovaný model. Jeho předností je minimální redundance dat. Tento model používají většinou primární systémy ERP. 11

19 Obr. 6 Normalizované datové úložiště (RAINARDI 2008, s. 9) Ve výše zmíněných kapitolách byla stručně popsána celá základní datová vrstva. Tento základní prvek, na kterém BI stojí, je velmi důležitý pro poskytování správných dat analytickým nástrojům. Jeho úkolem je tedy mít data konzistentní, pravdivá a pokud možno co nejrychleji. Integrita datového skladu je považována za samozřejmost. Tyto systémy jsou koncipovány jako read-only, přesněji řečeno se do nich dají data pouze přidávat, nikoliv mazat nebo upravovat. Tím se liší od OLTP systémů, kde se běžně data editují nebo mažou. Zdrojové systémy mohou udržovat data po krátký časový úsek, například 2-3 roky. Starší data se poté mohou smazat. Naproti tomu úkolem datového skladu je držet historii pokud možno kompletní Business Intelligence analytická vrstva Účelem BI řešení je získat z dostupných dat maximum relevantních informací pro podporu rozhodování. Tento záměr naplňuje analytická vrstva Business Intelligence. Díky nástrojům analytiky a následné prezentace lze datům přiřadit informační hodnotu, kterou konkrétní uživatelé či oddělení potřebují. Mezi typické požadavky lze zařadit potřebu důkladné analýzy prodejů. Obchodní společnost může mít kromě hlavního sídla ještě mnoho dalších poboček v rámci své země či v zahraničí. Taková situace představuje potřebu komunikace jednotlivých poboček s manažery, je potřeba data analyzovat a vyhodnocovat. Jedním z možných řešení je takové, 12

20 že každá pobočka zpracovává za svou činnost měsíční report a odesílá je do centrály, kde se data vyhodnocují. Plánování na operativní úrovni je v tu chvíli prakticky v rukou samotné pobočky, centrála nemá přehled o provozu v jakýkoliv časový okamžik. Na základě takového reportingu může centrála reagovat a plánovat na taktické úrovni a strategické. Pobočka funguje relativně autonomně, pokud není přehled nad provozem kdykoliv dostupný. Takovýto scénář by se pravděpodobně v dnešní době vůbec nevyskytoval, protože odpovědní manažeři a vedení společnosti si uvědomuje důležitost informační provázanosti. Právě pro tento účel se velmi dobře hodí Business Intelligence. Největší výhodou je datová konsolidace poboček, tak jak byla popsána v předchozí kapitole. Na základě takto získaných dat je tedy možné provádět různé typy analýz. Od jednoduchých reportů až po sofistikovanější metody Data Miningu. Následující kapitola se bude zabývat jednotlivými metodami dostupných analýz na získaných a zpracovaných datech Reporty V rámci datového skladu existují různé typy reportů podle cílové skupiny, jednak pro administrátorské účely a dále pro koncové uživatele. Koncovému uživateli je většinou předkládán report v podobě kontingenční tabulky. Podle typu reportů se může jednat o: Data quality reports: report obsahuje statistiku kvality dat podle DQ mechanizmu. Tento report čerpá data hlavně z úložiště meta-dat, Audit reports: tyto reporty získávají data z event logu 8, obsahují údaje o procesu ETL, tvorby tržišť, bezpečnostní záznamy, záznam o výmazu dat, údržba databáze apod., DDS single dimension reports: nejjednodušší typ reportu, který obsahuje pouze data z jedné dimenze. Například seznam zboží na skladě, struktura podniku a další, DDS drill-across dimensional reports: reporty tohoto typu mohou spojovat několik faktových tabulek, například fakta prodejů, fakta komunikace a fakta kampaní pro zjištění efektivity konkrétní kampaně na tržby. (RAINARDI 2008, s. 332) Reporty jsou většinou předpřipravené sestavy, které jsou učeny konkrétním potřebám a konkrétním lidem. Z tohoto důvodu nejsou příliš flexibilní. Některé snadné dotazy je snadnější provést v OLTP systému, protože potřebujeme velmi aktuální údaj, například kolik bylo prodáno produktů v dnešní den, jaká je adresa konkrétního zákazníka apod. Předpřipravené reporty mohou pokrývat dost běžných činností, ale pokud nastane požadavek na úpravu reportů a zvýší se potřeba analytiky, přestanou reporty stačit. Právě pro rigidnost reportů je často důvodem organizací nasadit BI řešení, pro které je kriticky důležité OLAP, viz následující kapitola OLAP Reporty pro operativní úroveň rozhodování lze poměrně snadno získat pomocí SQL 9 dotazu v OLTP systému. Pro potřeby analytiky je ale tento přístup naprosto nevhodný. Pokud bychom pokládali složitější dotaz na zdrojový systém, díky optimalizaci pro transakce by docházelo k velké zátěží tohoto systému. Na OLTP systém je jedním z hlavních požadavků 8 Event log soubor událostí databázového či jiného systému. 9 SQL Structured Query Language, standardizovaný dotazovací jazyk pro práci s daty v relační databázi. 13

21 vysoký výkon a dostupnost, mohou na něj být napojeny například pokladny, digitální váhy apod. Tyto systémy musí dostat okamžitě data o položce a například vystavit doklad. Proto je pro analytické dotazy určena technologie Online Analytical Processing OLAP. OLAP je aktivita interaktivního analyzování dat vzniklých obchodními aktivitami a činnostmi, která jsou uložena nejčastěji v dimenzionálním úložišti datového skladu. Tato aktivita slouží pro podporu rozhodnutí na taktické a strategické úrovni. Typickou skupinou, která OLAP využívá, je obchodní manažer, podnikový analytik a vedoucí pracovníci. OLAP obsahuje funckionalitu pro operace typu: Agregace (totaling) Navigace hierarchií, přechod do detailu (drilling down) Krájení a kostkování (slice and dice) Pro zpřístupnění těchto operací je možné použít relační databázi nebo multidimenzionální. Podle typu použité databáze se OLAP dále dělí na: Relational online analytical processing (ROLAP) ve spojení s relační databází, Multidimensional online analytical processing (MOLAP) spojení s dimens. databází. (RAINARDI 2008, s. 14) Online analytical processing tedy využívá jako zdroj multidimenzionální databázi (MDB), známe také pod pojmem OLAP cube (OLAP kostka). Termíny OLAP a OLAP cube se tedy od sebe liší tím, že OLAP cube je multidimenzionální databáze a OLAP je aktivita, která tuto databázi analyzuje. (RAINARDI 2008, s. 379) Pro lepší pochopení jak OLAP kostka funguje, poslouží následující obrázek 7. Obr. 7 Multidimenzionální DB se dvěma dimenzemi (RAINARDI 2008, s. 378) 14

22 Na schématu je multidimenzionální databáze se dvěma dimenzemi, zákazník a produkt. Kombinace těchto dvou dimenzí udává jednu nebo více sledovaných hodnot, nebo může obsahovat prázdnou hodnotu. Průsečík tedy představuje obchodní událost. Pokud tato událost nastane, je zapsána hodnota. Vzniklá událost je vytvořena zákazníkem a produktem. V praxi je mnohem častější využití více dimenzí. Pokud bychom chtěli zobrazit tři dimenze, vnikne zmiňovaná kostka. V případě čtyř a více dimenzí se takový objekt nazývá hyper kostka (hypercube). Pro pochopení základních operací na kostce je dobré zobrazit standartní kostku se třemi dimenzemi, viz obrázek 8. Obr. 8 Multidimenzionální databáze se třemi dimenzemi (RAINARDI 2008, s. 379) Pokud rozšíříme předešlou kombinaci zákazník/produkt o další dimenzi (osu), vznikne objekt ve tvaru kostky. Na obrázku je zobrazena obchodní událost, rozšířená o další rozměr. Z praktického hlediska této události přidáme další informační hodnotu, jsme schopni identifikovat čas této události. Samotná událost dle schématu nese sledované hodnoty příjem, náklad a zisk. Takto vytvořená OLAP kostka může být analyzována uvedenými operacemi nebo pomocí Data Miningu. Důvod pro použití OLAP kostky místo relační databáze je ten, že hodnoty kostky jsou vypočítány dopředu a fyzicky je kostka uložena jako komprimované multidimenzionální pole. To minimalizuje počet I/O 10 operací v porovnání s tabulkami v relační databázi. (RAINARDI 2008, s. 378) Na druhou stranu kalkulace kostky zabere určitý čas, navíc v případě změny ve zdrojovém systému se musí kostka znovu přepočítat. Tento fakt, že kostka není vypočítána okamžitě, nehraje důležitou roli díky zaměření požadované informace. Tyto analýzy slouží pro hodnocení historických dat. 10 I/O input output operace, například čtení a zápis na disk 15

23 Základní operace s OLAP kostkou Nad sestavenou a vypočítanou kostkou můžeme pomocí OLAP provádět různé operace, díky kterým dostaneme pohled na data přesně z takové perspektivy, jakou potřebujeme. Pomocí kostky můžeme snadno odpovídat na otázky typu: kolik se prodalo v prvním kvartálu roku 2012 položek zboží konkrétní kategorie a pouze určité barvy, a to při marži mezi 5-10 %. Prakticky pomocí základních operací a s využitím filtrů jsme schopni definovat jakýkoliv požadovaný pohled. Krájení kostky a kostkování (slice and dice) První základní operací, kterou můžeme s kostkou provádět je krájení (slice). Jedná se o proces, díky kterému získáme blok dat filtrovaný podle jedné dimenze, viz obrázek 9. Obr. 9 Krájení kostky (RAINARDI 2008, s. 413) Pokud budeme kostku omezovat pomocí více dimenzí, jedná se o operaci kostkování (dice). Tuto operaci představuje schéma na obrázku 10. Obr. 10 Kostkování (RAINARDI 2008, s. 414) 16

24 V praxi může krájení kostky představovat vícenásobné filtry, například pokud zpracováváme kostku pomocí MS Excel 2010, dovolí nám přidávání řezu pomocí komponenty Slicer (průřezy) filtrovat data přesně podle požadavků. Tato komponenta je v podobě tlačítek, takže je na první pohled zřejmé, pomocí jakých parametrů se data filtrují. Modifikace tohoto filtru je potom velice jednoduchá. Další ze základních operací nad kostkou je posun v hierarchii do většího/menšího detailu. Dimenze může být složena z více atributů v hierarchické podobě. Takovou hierarchii představuje obrázek 11. Obr. 11 Hierarchie dimenze, drill up a drill down (RAINARDI 2008, s. 414) Operace drill up představuje prezentaci dat na vyšší úrovni (z detailu do souhrnné úrovně). Drill down naopak rozbalí údaj do většího detailu zobrazí agregované úrovně. V obrázku 11 představuje Amadeus Entertainment nejvyšší možnou úroveň, které by odpovídala například agregovaná hodnota tržeb. Pokud chceme zjistit, jaký podíl na tržbách měl Store 1, provede se drill down až na úroveň největšího detailu. Občas se můžeme setkat ještě s další operací, která se nazývá pivoting. Tato operace dovolí s kostkou rotovat a měnit tak perspektivu pohledu na data. Z našeho pohledu se ale jedná prakticky jen o jiný výběr dimenzí a řez podle jiné dimenze. Analýza pomocí OLAP je velmi flexibilní nástroj, díky kterému můžeme vytvářet grafy, what-if analýzy a mnohé další výpočty. Můžeme snadno zjistit top produkty z pohledu prodeje, nejhorší produkty, snadno analyzujeme ziskovost na konkrétním zákazníkovi a mnoho dalších úloh v obchodní činnosti. Další zajímavou a využívanou analýzou jsou trendy a porovnání mezi různými časy. Důležité je v tomto směru mít znalosti o tom, co chceme analyzovat BI dashboard Palubní desky, nejčastěji v Business Intelligence známé jako dashboards, představují obrazovku se základním přehledem klíčových ukazatelů. Pro manažera na strategické úrovni přináší informaci, v jaké kondici je podnik nebo organizace. Tato obrazovka většinou obsahuje grafické prvky ve stylu budíků, grafů, semaforů nebo jiných indikátorů. Tyto prvky zobrazují nejčastěji výkonnost v konkrétních aspektech (např. prodej), měří pouze jejich hodnoty, případně porovnává s požadovaným stavem (semafor). Dashboard má za úkol 17

25 poskytnout manažerovi informaci, zda je vše v pořádku, v opačném případě se může podle daného indikátoru ponořit do analýzy, proč k problému došlo. Důležité je zmínit, že dashboard nemá vypovídací schopnost ke zvolené strategii. K tomu jsou určeny například Balanced Scorecards. Dashboard by měl být přizpůsoben požadavkům konkrétního uživatele. Pro ředitele bude dashboard přizpůsoben jinak než dashboard pro manažera, pracujícího na taktické úrovni Metriky Metrika by se dala charakterizovat jako míra čehokoliv, co má vliv na chod podniku. Volba sledovaných metrik záleží na každém oddělení, které bude sledovat své vlastní specifické míry. Například pro servisní centrum bude důležitý počet nespokojených zákazníků, pro oddělení lidských zdrojů bude důležitá metrika fluktuace zaměstnanců. Správně zvolené metriky a KPI jsou velmi důležité. Proto je nutné mít v teamu specialistu, který vytvoří skupinu lidí zabývající se metrikami. Klíčové je dát dohromady lidi, kteří vědí vše o podniku a věcech s podnikem souvisejících. Jsou zde klíčové vlastnosti jako: kvalifikace, znalosti a vyváženost. V praxi probíhá definice takto: 1. skupina musí být sestavena z kvalifikovaných lidí, 2. znalosti jsou nezbytné pro určení metrik všichni ve skupině musí vědět jaká je strategie podniku a jaké jsou jeho cíle, 3. je nutná vyváženost a nezaměřovat se striktně na určité aspekty, aby nedošlo k opomenutí jiných. Před začátkem práce skupiny je nutné si ujasnit, zda všichni členové se strategií podniku souhlasí a hlavně zda jí věří. (BI DASHBOARDS) KPI - Key performance indicator Klíčové ukazatele výkonnosti (KPI) jsou základním prvkem systémů pro měření výkonnosti a pomáhají organizacím dosahovat stanovených cílů. Jedná se o konkrétní měřitelnou hodnotu při vykonávání daného procesu. (INTER-INFORMATICS) Každé oddělení bude mít, stejně jako v případě metrik, jiné požadavky na KPIs. Pro jejich stanovení platí obdobný způsob jako u metrik, tedy navrhovat ve skupině. Vliv klíčových ukazatelů výkonnosti na řízení podniku je patrný z obrázku

26 Obr. 12 Klíčové ukazatele jako zpětná vazba pro vedení (INTER-INFORMATICS) Výstrahy - Alerts Pomocí výstrah může BI řešení informovat uživatele o nastalé situaci dle zvolených pravidel. V praxi se může stát, že dochází určitá zásoba, klesá požadovaná výkonnost určitého úseku k hraniční mezi a další podobné situace, které vyžadují rychlou reakci. Tato informace může být doručena jakýmkoliv komunikačním kanálem ( , SMS, blikající upozornění na obrazovce). Díky implementaci výstrah dostane manažer informaci včas. Toto platí zejména pro operativní úroveň. V případě vyššího managementu tato funkcionalita nemá příliš smysl, řediteli stačí přehledy v dashboardu. Tato aplikace alertů se v Business Intelligence nazývá proaktivní přístup. 19

27 2 Data Mining Pojem Data Mining lze charakterizovat jako metodologii získávání netriviálních skrytých a potenciálně užitečných informací z dat. Někdy se chápe jako analytická součást dobývání znalostí z databází (KDD Knowledge Discovery in Databases). (BERKA 2003, s. 366) Metoda DM má počátky v šedesátých letech dvacátého století, kdy statistici využívali pro tuto metodu termíny Data Fishing nebo Data Dredging. Tyto termíny vystihovaly z jejich pohledu chybnou praxi, kdy nebyla z počátku stanovena hypotéza. Termín Data Mining se objevil okolo roku 1990 v komunitě zabývající se databázemi. (MENA 2011) Data mining je zaměřen mnohem více na praktickou stránku, než statistika. Je to dáno i jeho původem. Pro statistiky je doporučováno zapojit se do Data Miningu, protože jejich znalost statistickým metod jim dává dobrý základ pro tento obor. DM se zaměřuje na témata, která nejsou cílem statistického výzkumu. Pro Data Mining je typické: Data Mining pracuje s heterogenními daty, někdy dokonce s komplexními interními strukturami (obrázky, video, text nebo signály), Data Mining předpokládá, že surová data nejsou v dostatečné kvalitě, aby mohly být použity přímo statistické metody. Nutná příprava dat ke statistickým metodám poté může mít i zásadní vliv na finální výsledky, Data Mining používá flexibilní prediktivní techniky, které jsou často založeny na silně algoritmických základech. Díky tomu mohou mít slabší formální statistické zdůvodnění (například neuronové sítě), Data Mining často využívá skrytých (přechodných) proměnných, jako nástroje pro provedení komprese zdrojových dat a prezentace v abstraktnější podobě, což pomáhá v sestavování modelů pro různé úkoly, Data Mining se nepokouší najít pouze obecný, globální model založený na datech, ale hledá také lokální vzory (lokální modely) ve velkých datových prostorech. Toto je velmi užitečné zejména v obrovských souborech dat a počtu dimenzí, kde by hledání globálního (obecného) vzoru bylo příliš nákladné a neúčelné, Data Mining klade silný důraz na algoritmický přístup a věnuje pozornost problémům škálovatelnosti (tj. zda přístup bude pracovat s rozumnou efektivitou ve velkých datových souborech). Přístupy, které nejsou praktické, jsou odmítány. Data Mining se zaměřuje na data management a optimalizaci hledání v datech (klade důraz na problémy spojené s přípravou dat, čištěním dat, algoritmickou otázkou a datovými strukturami). Statistika je více zaměřena na formální stránku reprezentace finálního modelu a na formalizaci odhadové funkce v datovém prostoru k inferenci 11 (se zaměřením na problémy modelů a principů statistické inference). V ten samý moment se Data Mining zaměřuje na odhad a obecně ignoruje inferenční modely. Data Mining obvykle zahrnuje velké datové soubory. 11 Inference usuzování, odvozování určitých výroků z jiných 20

28 Jedním z důležitých aspektů datové analýzy je zdraví a kvalita dat. Aby bylo možné data analyzovat statisticky, musí být nejprve ve správném formátu, který umíme analyzovat. Podle Fergusona (1997) se většina organizací topí v datech a zároveň se jim nedostává pravých hodnotných informací. Jak uvedl Lambert (2002), mnoho manažerů jednoduše předpokládá, že kvalita jejich dat je dobrá. Bohužel se zdá, že špatná kvalita je více standardem než výjimkou a statistici tento problém do značné míry ignorovali. Špatná kvalita dat může způsobit mnoho bezprostředních škod a má mnoho dalších nepřímých efektů, jak uvádí Lambert (2002). Proto musí statistici brát v úvahu kondici dat a aplikovatelnost statistických modelů. Práce s komplexními daty poskytuje obrovskou příležitost pro statistiky, kteří ovládají techniky Data Miningu. (CERRITO 2006, s. 1-3) Tabulka 1 stručně porovnává statistiku a Data Mining ve specifických problémech a použitých nástrojích. Tabulka 1Porovnání statistických metod vůči Data Mining technikám (CERRITO 2006) Problém Klasifikace Analýza (ANOVA) rozptylu Odhad rozdělení pravděpodobnosti Statistické metody Diskriminační analýza a logistická regrese Obecný lineární model (GLM), smíšené modely Jádrový odhad hustoty, empirické distribuční funkce Extrakce textu Žádná běžně dostupná, stále musí spoléhat na manuální abstrakci. DM metody Podobnosti Rozdílnosti Umělá neuronová síť, indukce pravidel a klasifikační stromy Umělá neuronová síť, indukce pravidel a rozhodovací stromy Žádné snadno dostupné Nástroje pro Text Mining používají singulární rozklad matice a text analyzují v kombinaci s klasifikací pro vytěžení informací. Jádrový odhad hustoty nebo k-nejbližší soused je ekvivalent k pravděpodobnostní neuronové síti. Většina lepších DM nástrojů obsahuje logistickou regresi. Výstižnost závisí na statistických veličinách jako korelace a odds ratio 12. Oba směry posuzují přesnost predikce Jádrový odhad hustoty je dostupný v programu SAS/STAT. Nicméně většina statistických programů jej neobsahuje jako techniku odhadu. Proto jádrový odhad hustoty není dosud běžně používán jako statistická metoda. Primární dostupná metoda je frekvence výskytu. Data Mining rozděluje data na tréninkovou, testovací a validační část. Statistika závisí více na křížové validaci. Výstižnost se určuje pomocí míry chybné klasifikace. DM nástroje jsou určeny pro odhad Není přímo dostupné v programu SAS Enterprise Miner. Clustering a klasifikace je běžně dostupným nástrojem pro práci s textovými informacemi. 12 Odds ratio poměr šancí/rizik výskytu 21

29 Statistické metody jsou založeny na dedukci dochází k procesu od obecných předpokladů (hypotéz), přes pravidla k závěrům. Tyto závěry z předpokladů vyplývají, přičemž odvozování je jisté, nikoliv jen pravděpodobné. Jedná se tedy o základní postup při dokazování (hypotéz, obecných předpokladů). Data Mining využívá opačného postupu, tedy indukce. Na základě pozorovaných dat dokáže vytvářet obecné předpoklady, hypotézy. Z praktického hlediska má DM velkou výhodu ve snadném využití oproti statistice, kde je nutné mít mnohem hlubší fundamentální znalosti. Na druhou stranu statistik, který přejde k DM, má díky svým znalostem velkou výhodu. 2.1 Metodologie Data Mining Úkolem Data Miningu je hledání skrytých vzorů v datech, které nám nejsou na první pohled zřejmé. Toto hledání potenciálně významných informací se dá označit jako objevování zlatých nuggetů. Vlastní proces je zaměřen na automatické nebo poloautomatické vyhledávání a objevování skrytých vzorů - hidden patterns. Proces může fungovat nad velkými úložišti (big data), nad operativní databází v Data Warehouse (ODS), na OLAP kostce, nebo jen na lokálním souboru CSV. Řešení každého projektu vyžaduje určité postupy. V oblasti Data Mining existuje mnoho možných metod a je těžké popsat jeden konkrétní postup. V současné době existuje prakticky jediná metodologie a to CRISP-DM, nyní ve verzi 2.0. Metodologie CRISP-DM začínala v roce 1996 jako koncept. Později vznikl požadavek Evropské komise na sjednocení DM postupů při řešení DM projektů. Samotný projekt vytvoření metodologie vznikl v konsorciu čtyř firem: SPSS, Teradata, Daimler AG a OHRA v roce Tehdy druhý hráč na trhu, SPSS, je od roku 2009 ve vlastnictví společnosti IBM. V některých zdrojích se uvádí jako další metodologie SEMMA od společnosti SAS, ale akronym SEMMA využívá SAS pouze jako logickou strukturu funkcionálních nástrojů v programu SAS Enterprise Miner na svých webových stránkách uvádí toto časté nedorozumění na pravou míru. (SAS Institute Inc.) Z čeho se metodologie CRISP-DM skládá a jak probíhá životní cyklus DM projektu je znázorněno na obrázku

30 Obr. 13 Fáze projektu podle metodologie CRISP-DM (IBM) Pochopení obchodní činnosti (Business Understanding) Ještě před začátkem práce je nutné prozkoumat, co organizace očekává od Data Miningu. Důležité je zahrnout co nejvíce lidí do diskuze a zadokumentovat výsledek. Toto zjišťování důvodů a očekávání od DM projektu je důležité. Všechny zainteresované osoby by měly být na jedné lodi, než se začnou vynakládat zdroje a úsilí. Dalšími kroky v této fázi je sehnat dostupné informace o současné obchodní situaci, dokumentovat specifické obchodní cíle, o kterých rozhodují klíčové osoby a dohodnout se na kritériích pro měření úspěšnosti Data Mining projektu z obchodního hlediska Pochopení dat (Data Understanding) Další krok zahrnuje důkladné prozkoumání dostupných dat pro dolování znalostí. Fáze pochopení dat je kritická pro úspěšné překonání následující fáze přípravy dat, která je typicky nejdelší z fází projektu. Tato činnost zahrnuje přístup k datům, jejich prozkoumávání v tabulkové formě i v grafech. To umožní určit kvalitu dat a popsat výsledky těchto kroků do projektové dokumentace. Důležité jsou tedy následující kroky: sběr výchozích dat, popis těchto získaných dat, prozkoumání datového souboru, ověření kvality dat. 23

31 2.1.3 Příprava dat (Data Preparation) Příprava dat je jednou z nejdůležitějších fází a často tvoří časově velmi náročný prvek Data Miningu. Na tuto fázi je reálně odhadováno mezi % času projektu a úsilí. Důkladným zpracováním dvou předchozích fází minimalizujeme riziko skluzu v projektu, ale stále je potřeba věnovat dostatek času této přípravě dat pro dolování. V tomto kroku jsou typicky zahrnuty tyto činnosti: slučování datových souborů, výběr vzorkových dat, agregování záznamů, odvozování atributů, třídění dat pro modelování, odstraňování nebo nahrazování prázdných či chybějících hodnot, rozdělení na tréninkovou a testovací množinu dat Modelování (Modeling) V této části procesu se využívají připravená data a výsledky začnou vrhat světlo na obchodní problém, který se definoval ve fázi porozumění obchodní činnosti. Modelování se obvykle provádí v několika iteracích, analytik DM otestuje několik modelů za použití základního nastavení a poté ladí jejich parametry. V případě nutnosti se vrací do předchozí fáze přípravy dat, pokud zvolený model vyžaduje speciální datovou manipulaci. Jen vzácně se podaří v jedné iteraci připravit data a zároveň vybrat správný model, který uspokojivě odpoví na řešený problém. To je to, co tvoří Data Mining zajímavým. Existuje mnoho pohledů na řešení konkrétního problému. Záleží na zkušenostech DM analytika, jaké techniky a nástroje vybere pro řešení konkrétního problému. V této fázi se určují kritéria modelu a vytváří se testovací schéma. Toto schéma zahrnuje specifikaci: jaká data budou použita k testování modelu, jejich rozdělení do tréninkové a testovací množiny, jak vyjádřit míru úspěchu modelů s učitelem (např. C ), jak vyjádřit míru úspěchu modelů bez učitele (např. Kohonenovy sítě), kolikrát se chceme vracet k adjustaci konkrétního modelu, než dojde k výměně a testování jiného modelu. Na tomto místě jsme již připraveni k vytvoření modelu, který se zdá být na základě předchozí kroků nejvhodnější. Ideální je ještě před finálním výběrem provést řadu experimentů dle zvolených kritérií, že se vybere finální model. Většina DM analytiků typicky vytvoří několik modelů a porovnává jejich výsledky, než je nasadí. Při vybírání vhodného modelu je velmi důležité udržovat si poznámky o nastavení parametrů modelu, pomůže to v diskuzi s ostatními a lze se k modelům vracet s návrhem lepšího nastavení. Na konci tohoto procesu sestavování modelu bychom měli mít tři informace: 13 C 5.0 algoritmus pro vytváření rozhodovacího stromu 24

32 seznam parametrů modelu a poznámky, které vedly k nejlepšímu výsledku mezi modely, vlastní proceduru modelů, popis výsledku každého modelu, včetně výkonnosti (rychlosti), případně datových problémů Vyhodnocení (Evaluation) Ve fázi vyhodnocení máme většinu z Data Mining projektu za sebou. Zde by mělo být jasné, zda model vytvořený v předchozím kroku je techniky správný a efektivní vůči kritériím úspěšnosti DM projektu, který byl definován dříve. Dále je nutné vyhodnotit výsledky v kontextu s obchodními cíli, které byly definovány v první fázi. Tato činnost slouží k tomu, aby organizace mohla využít zde získaných výsledků. Výstupem z této fáze by měl být: finální model, vybraný v předešlých fázích CRISP-DM, Jakékoliv závěry nebo úsudky z modelů samotných a nálezy, které vznikly při Data Dining procesu Nasazení (Deployment) Fáze nasazení je proces využití nových poznatků ke zlepšení v rámci organizace. To může znamenat formální integraci získaného modelu. Model může například generovat skóre podle sklonu k odchodu zákazníka (churn propensity). Tyto údaje může dále posílat zpět do datového skladu. Alternativně může nasazení znamenat, že poznatky budou využity ke změně v organizaci. Z našich dat mohl vyplynout alarmující vzor, který znamená změnu chování zákazníků ve věku nad 30 let. Tyto znalosti nemusejí být přímo integrovány do informačních systémů, ale nepochybně budou velmi důležité v marketingovém oddělení při plánování kampaní. Obecně tato fáze zahrnuje dva typy činností: plánování a monitorování výsledků nasazení, dokončení balíků úkolů, jako je závěrečná zpráva a report vedení projektu. (IBM CORP. 2011) 25

33 2.2 Techniky Data Mining Techniky dolování dat lze rozdělit na dvě základní skupiny: predikce, deskripce. Cílem predikce je určit hodnotu atributu na základě znalosti atributů jiných. Její využití je velice široké a lze jej aplikovat prakticky ve všech oborech. Deskriptivní metody mají za cíl odhalit nové zákonitosti (znalosti), které by přispěly k rozvoji lidského poznání v předmětné oblasti. Někteří autoři uvádějí ještě třetí skupinu a to indikace, která spojuje metody pro detekci neobvyklých vzorů v chování daného systému. Příkladem může být včasná identifikace poruchy technologického systému a vyslání alarmu obsluze. (POSPÍŠIL et. al. 2006) Analýza asociací Asociační pravidlo, nebo také analýza nákupního košíku, je jedna z nejvýznamnějších a nejčastěji používaných DM technik. Tato technika hledá zajímavé asociace a korelace uvnitř velkého souboru datových položek, kde přítomnost položky (nebo skupiny) v transakci vyvolává přítomnost položky jiné (případně více položek). Například v obchodě s potravinami je důležité vědět, zda zákazník kupující hovězí maso zároveň kupuje i marinádu na hovězí. Na základě této analýzy se poté přizpůsobí umístění těchto položek blízko k sobě. Asociační pravidlo zkoumá sílu nákupu kombinace, lze ho zapsat jako, a znamená to, že nákup implikuje nákup. Asociační pravidlo je určeno pomocí relevance. Relevance zahrnuje základní míry: podporu (support): spolehlivost (confidence): Poznámka: pravidlo a může mít rozdílnou spolehlivost, ale bude mít stejnou podporu. očekávaná spolehlivost (expected confidence): hodnota navýšení (lift): (CERRITO 2006, s. 159) Klasifikace a prediktivní modelování Klasifikace, jako forma prediktivního modelování, je důležitá část Data Miningu. Může například definovat skupiny obyvatelstva. Klasifikace pomáhá organizacím identifikovat, 26

34 kteří zákazníci pravděpodobně zruší smlouvu na služby. Lékaři mohou předpovědět, kterým pacientům hrozí vysoké riziko infarktu či mozkové příhody a pojišťovací společnosti mohou určit, u kterých klientů hrozí riziko podvodu. Existuje více rozdílných metod pro klasifikaci. Mezi běžně používané patří neuronové sítě, rozhodovací stromy a regrese. Díky více metodám klasifikace je důležité porovnávat výsledky metod pro určení nejvíce vhodného prostředku klasifikace. Můžeme například porovnávat míru úspěšné klasifikace a vybrat techniku, která nabízí nevyšší hodnotu. V některých situacích může být přesnost velmi vysoká (téměř 100 %) na tréninkové množině a přesto na validačním souboru je prakticky nulová. Proto je validace modelu naprosto zásadní postup v DM. Data Minig používá klasifikační metody, které jsou podobné (někdy stejné) pro ty, kteří používají statistickou inferenci. Zatímco DM využívá mnoho rozdílných modelů a následně je porovnává na testovací množině dat, statistická inference má tendenci zkoumat jeden model, posuzuje jeho efektivitu pomocí -hodnot a podle předpokladů modelu. Klasifikace se zaměřuje primárně na začlenění nebo vyloučení v malém vzorku specifických kategorií. Nicméně všechny klasifikační techniky pracují stejně dobře k predikci výsledku spojité proměnné. (CERRITO 2006, s. 242) Prediktivní modelování by se dalo snadno popsat takto. Máme soubor dat se vstupními hodnotami a jím odpovídající výstupní hodnoty na tomto souboru se prediktivní model učí, tedy indukuje pravidla z datového vzorku. Při aplikaci prediktivní model hledá nejpravděpodobnější hodnotu výstupu na základě předem neznámé kombinace vstupních hodnot, jinými slovy na nový datový soubor aplikuje naučená pravidla a pomocí dedukce se pokouší určit výstupní hodnotu. Základním příkladem bývá hodnocení rizika u banky. Banka má svou databázi klientů s mnoha údaji (vstupní hodnoty) a někteří klienti jsou na základě zkušenosti označeni jako rizikoví. Pokud mát banka dostatečně velkou databázi, může využít model k učení se na této databázi. Tento model hledá vztahy mezi vstupními parametry, a pokud se mu podaří najít silný vzor rizikových klientů, lze poté snadno nového klienta ohodnotit pomocí tohoto modelu. Dle zkušeností banky by rizikový klient mohl mít teoreticky tyto vstupní hodnoty: muž, let, dva úvěrové účty, ženatý. Takto naučení model by poté nového klienta se stejnými vstupními hodnotami určil jako rizikového. Tyto vstupní hodnoty mají na výsledek různou váhu. Pokud bude mít banka 20 vstupních hodnot, může díky klasifikaci vzejít například 5 signifikantních atributů, na základě kterých bude model schopen velmi přesně určit rizikového klienta Regrese Regresní analýza je statistická metoda pro odhad závislosti mezi proměnnými. Zahrnuje několik technik pro modelování a analyzování více proměnných, kdy se zaměřuje na vztah mezi závislou proměnnou a jednou či více nezávislými proměnnými. Konkrétněji, regresní analýza pomáhá pochopit, jak se mění typická hodnota závislé (vysvětlované) proměnné při změně nezávislých (vysvětlujících) proměnných. 27

35 Obecně ji lze zapsat rovnicí:, kdy má normální rozdělení pro lineární regresi a diskrétní pro logistickou regresi. (CERRITO 2006, s. 243) Lineární regrese Představuje aproximaci daných hodnot polynomem prvního stupně (přímkou) metodou nejmenších čtverců. Jinak řečeno, jedná se o proložení několika bodů grafu takovou přímkou, aby součet druhých mocnin odchylek jednotlivých bodů od přímky byl minimální. Aproximace přímkou je naznačena na obrázku 14. Obr. 14 Ilustrace lineární regrese (Wikipedia) Lineární regresi lze použít tam, kde výstupem je intervalová proměnná. Pokud je výstupní proměnnou nominální hodnota, použije se logistická regrese. (CERRITO 2006, s. 243) Kvalita lineárního modelu je typicky vyjádřena pomocí koeficientu determinace, který se pohybuje v intervalu a udává, jaký podíl rozptylu v pozorování závislé proměnné se podařilo regresí vysvětlit, tj. čím vyšší hodnota, tím větší úspěšnost regrese Logistická regrese Logistická regrese umožňuje identifikovat model závislosti jedné kategoriální proměnné na ostatních. Nezávislé proměnné mohou být jak číselného tak kategoriálního typu. Na základě nalezeného modelu lze provádět predikce pro neznáme případy včetně odhadu pravděpodobnosti výskytu jednotlivých kategorií. Metoda se užívá především v bankovnictví, medicíně, marketingu, ekonomii a v technických nebo přírodních vědách. (ACREA CR) Uvažujme binární vysvětlovanou proměnnou, jež nabývá s pravděpodobností hodnoty 1 a s pravděpodobností hodnoty 0. Představuje-li vektor [ ], -tou kombinaci hodnot nenáhodných vysvětlujících proměnných a vektor je vektorem neznámých parametrů. Odhadem vektoru se odhaduje hledaná pravděpodobnost výskytu zkoumaného jevu (za předpokladu parametrizace logistickou funkcí). Poté lze vyjádřit regresní funkci s tzv. logitovou transformací 28 jako logistickou regresní funkci:, kde [ ], [ ]. Podmíněná

36 střední hodnota binární vysvětlované proměnné je tak vyjádřena jako nelineární funkce vysvětlujících proměnných. Z logistické regresní funkce přitom vyplývá, že, a dále [ ]. (PECÁKOVÁ 2007) Příklad takové funkce znázorňuje obrázek 15. y x Obr. 15 Logistická funkce s na horizontální ose a na vertikální Kvalita modelu logistické regrese se obvykle nevyjadřuje pomocí testu poměru věrohodnosti (likelihood ratio test)., ale častěji pomocí Výhoda těchto regresních metod je v teoretické propracovanosti, nevýhodou může být náročnost a složitý vývoj komplexnějších modelů. Všeobecně jsou tyto metody vnímání jako nestabilní, pomále a nepoužitelné pro složitější úlohy klasifikace. Nicméně v přesnosti konkurují nejlepším algoritmům SVM 14. (KOMAREK 2004) Neuronová síť Neuronová síť patří mezi nelineární regresní metody. Díky svému principu a obtížné interpretaci se řadí mezi black box algoritmy, protože neexistuje jeden určitý model nebo rovnice a model není prezentován ve stručném formátu, jako je například regrese. Její inspiraci lze hledat v přírodě, chováním odpovídá biologickým strukturám. Umělá neuronová síť je struktura určená pro distribuované paralelní zpracování dat. Síť se skládá z neuronů, jejichž vzorem je biologický neuron. Tyto neurony jsou vzájemně propojeny a předávají si signály. Signály jsou během přenosu transformovány určitou přenosovou funkcí. Neuron má libovolný počet vstupů, ale pouze jeden výstup. Neuronové sítě se mohou používat k rozpoznávání obrazových dat, identifikaci osob, v radarových systémech, rozpoznávání sekvencí (gesta, hlas, ručně psaný text), lékařské diagnózy, finanční aplikace, vizualizace a filtrování spamu. Umělý neuron přestavuje model McCulloch-Pitts (MCP). Tento neuron má několik vstupů a jeden výstup, jak ilustruje obrázek SVM support vector machines, algoritmy podpůrných vektorů 29

37 Obr. 16 Neuron McCulloch-Pitts (CHALUPNÍK 2012) Signály vedou do neuronu, kde se přes váhy sečtou v potenciál, pokud je potenciál dostatečně velký, neuron vyšle signál. Váhy představují jakousi propustnost signálu. Podmínka pro vyslání signálu je, a tu lze přepsat pomocí aktivační funkce. Celou činnost lze vyjádřit snadno matematicky, kdy bude záporné číslo (představuje práh, který musí potenciál překonat). Aktivační funkce se může lišit, měla by ale být nelineární (např. sigmoid nebo hyperbolický tangens). (CHALUPNÍK 2012) Neuronová síť složená z jednotlivých neuronů by poté vypadala, jak naznačuje schéma na obrázku 17. Obr. 17 Diagram neuronové sítě (autor) Na tomto schématu má síť jednu skrytou vrstvu. Komplexita sítě narůstá s postupným přidáváním skrytých vrstev (hidden layers) a počtem vstupních proměnných. 30

38 Mezi klady neuronové sítě patří velmi dobrá aproximace a interpolace, ale v případě extrapolace dochází k nepředvídanému chování. V tomto ohledu je lepší lineární regrese. (LOHNINGER 1999) Rozhodovací strom Rozhodovací stromy lze rozdělit na dva hlavní typy a to podle predikované výstupní hodnoty. Prvním typem je klasifikační strom (classification tree) a je použit v analýze, kde predikovaná hodnota tvoří třídu. Druhý typ je regresní strom (regression tree), kde jako výstupní proměnnou spojitá hodnota. Regresní strom ilustruje obrázek 18. (POŠÍK 2005, s. 27) Y X Obr. 18 Regresní strom (POŠÍK 2005) Rozhodovací stromy představují naprosto jiný přístup ke klasifikaci oproti již zmíněným metodám regrese. Výstupem rozhodovacího stromu jsou série if-then pravidel. Každé pravidlo rozdělí pozorovaná data na část stromu, která se dále rozdělí dalším if-then pravidlem. Tento postup se nazývá rozděl a panuj (divide and conquer). Počáteční úroveň, která obsahuje celý datový soubor, tvoří kořen rozhodovacího stromu. Finální uzly se nazývají listy. Uzly mezi počátečním kořenem a listy jsou větve rozhodovacího stromu. Finální list stromu, obsahující pozorování, je vlastní predikovanou hodnotou (klasifikací). Na rozdíl od neuronové sítě a regrese, rozhodovací strom nepracuje s intervalovými hodnotami. Rozhodovací stromy pracují s nominální výstupní proměnnou, která má více než dva možné výsledky a s pořadovou (ordinální) proměnnou. Rozhodovací strom se dokáže dobře vypořádat s chybějícími hodnotami, není nutné využívat dopočítání hodnot a lze tak vytvářet sadu if-then pravidel přímo. Rozhodovací strom by neměl být příliš rozsáhlý, například v programu SAS Enterprise Miner je standardní velikost stromu nastavena na 6 úrovní. Počet úrovní lze samozřejmě ovlivnit oběma směry. Nicméně přednost mají stromy jednodušší a menší. Rozhodovací stromy patří mezi metody učení s učitelem. Při tvorbě stromu se musí hlídat chybovost, aby nedošlo k přeučení (kategorie je příliš specifická, mnoho úrovní). Postup tvoření stromu se také nazývá TDIDT Top-Down Induction of Decision Trees. 31

39 Rozhodovací strom má velkou výhodu ve snadné interpretaci, lze ho snadno vysvětlit cílové skupině, což ocení hlavně manažeři. Ukázku principu rozhodovacího stromu velmi názorně ilustruje obrázek 19. Obr. 19 Schéma rozhodovacího stromu (E-University) Přesnost rozhodovacího stromu se určuje pomocí míry chybné klasifikace. Mějme skupinu studentů, kde 20 % tvoří vysokoškoláci. Pokud řekneme, v této skupině není žádný vysokoškolák, bude míra chybné klasifikace rovna 20 %. Náhodné hádání při klasifikaci by se také pohybovalo okolo hodnoty 20 %. Míra chybné klasifikace zkoumaného modelu se tedy porovnává s náhodnou klasifikací a musí být nižší. (CERRITO 2006, s. 247) Shluková analýza (clustering) Shlukování je z pohledu Data Mining procesu považováno za metodu učení bez učitele. Není zde specifický výstup nebo cílový proměnná. Shlukování se liší od klasifikace tím, že neexistují předem dané kategorie v pozorování proto není jasně specifikovaná výstupní proměnná. Z pohledu zkoumání výsledků je tedy nutné použít jiné techniky pro analyzování dat. Protože neexistují předem daná výstupní kategorie, nelze hledat jedinou správnou odpověď z analýzy. Shlukování se zaměřuje na určení, zda nalezené seskupení má nějaký význam. Metody shlukování lze rozdělit: hierarchické (metoda nejbližšího/nejvzdálenějšího souseda, Wardova metoda ), nehierarchické ( -means, Kohonenovy samoorganizující mapy ). Ve srovnání s klasifikací je poměrně komplikované provést validaci, a to díky absenci cílové proměnné. Validace je tedy prováděna pomocí prozkoumání rozumnosti daného clusteru a jak se liší od jiného. Clustery se považují za odůvodněné, pokud je lze pojmenovat. Proto je pojmenování clusterů důležité (ale také náročné). Pojmenování clusteru je založeno na vstupních proměnných uvnitř clusteru a na základě těchto proměnných jsou clustery odděleny. Příkladem může být specifická skupina zákazníků, nakupující pouze přes internet. 32

40 2.3 Data Mining hodnocení modelů K nezbytným krokům v procesu dobývání znalostí patří hodnocení a porovnání vytvořených modelů. U predikčních modelů, které mají výstupní proměnnou numerického typu, lze použít jako míru kvality modelu střední kvadratickou odchylku (Mean-Squared Error). Pokud je vektorem predikce a je vektorem skutečných hodnot, pak je střední kvadratická odchylka (rozptyl) vyjádřen jako: Účelem metod je minimalizovat tuto nejčastěji používanou míru chyby. Další možností je použití střední absolutní chyby (Mean Absolute Error), která je vyjádřena: Mezi další možné sledované míry patří relativní kvadratická chyba, relativní absolutní chyba a korelační koeficient Matice záměn Klasifikační modely se nejčastěji hodnotí podle matice záměn (confusion matrix). V matici jsou ve sloupcích uvedeny informace o tom, jak postupoval algoritmus při klasifikaci, a v řádcích jsou informace, jak by to být mělo. Tabulka 2 představuje zmíněnou matici záměn. Tabulka 2Matice záměn (confusion matrix) Skutečná třída Predikovaná třída Třída = ano Třída = ne Třída = ano TP FN Třída = ne FP TN Tabulka představuje klasifikaci do dvou tříd, ano a ne. TP (true positive) je počet klasifikací, které algoritmus zařadil správně do třídy ano. FP (false positive) znamená počet klasifikací, které jsou chybně zařazeny do třídy ano (patří do třídy ne ). TN (true negative) jsou správně zařazené klasifikace do třídy ne a FN (false negative) představuje počet chybně zařazených klasifikací do třídy ne (patří do třídy ano ). Na základě této matice je vytvořena široce používaná míra správnosti (accuracy) a chyby (error): 33

41 V matici se sledují počty správně a nesprávně zařazených pozorování. V některých případech může být důležité, jaké se algoritmus dopustil chyby. Například u hodnocení bonity klientů banky se může stát, že systém chybně doporučí klientovi úvěr (třída ano ) a ten jej nesplatí. Tím vznikne ztráta. V případě, že by tohoto klienta zařadil chybně do ne, banka by pouze nevydělala. Tuto situaci řeší matice nákladů (cost matrix). Chyba vyjádřená v nákladech chybné klasifikace 15 má podobu: Kde je cena chybného zařazení třídy ne do třídy ano a je cena chybného zařazení třídy ano do třídy ne. Při výrazně nerovnoměrném rozložení tříd (například ano 5 % a třída ne 95 %) je celková přesnost zkreslená a je lepší použít přesnost konkrétní třídy: Senzitivita a specificita (sensitivity and specificity) jsou charakteristiky převzaté z medicíny. V případě nasazení nějakého nového léku nás zajímá, u kolika nemocných pacientů lék zabere (senzitivita), a zda lék zabírá pouze na danou chorobu (specificita). Z matice záměn se tyto hodnoty spočítají jako: Přesnost a úplnost (precision and recall) jsou pojmy, které jsou používané v oblasti vyhledávání informací. Pokud například hledáme dokumenty, týkající se určitého tématu, pak: 1. ne všechny nalezené dokumenty se týkají tématu, 2. určitě jsme nenalezli vše, co je k tématu k dispozici. Přesnost znamená, kolik nalezených dokumentů se skutečně týká daného tématu a úplnost říká, kolik dokumentů týkajících se tématu jsme nalezli. Tyto míry shody lze použít i pro hodnocení znalostí: 15 Správná klasifikace (TP, TN) uvažujeme s nákladem 0. 34

42 Přesnost je totéž jako správnost pro danou třídu. Někdy se používá souhrnná charakteristika F-míra (F-measure): (BERKA 2003) Pochopení práce s maticí záměn je tedy velmi důležité, na základě této matice se určují hodnoty s velmi silnou vypovídací hodnotou pro model. Dále se pro vzájemné porovnání modelů velmi často využívá grafické znázornění křivek. Porovnání pomocí křivek dá lepší představu o kvalitě modelu i v souvislosti s požadovaným využitím (specifický tvar křivky). Tyto křivky používají prakticky všechny Data Mining programy, proto je důležité uvést alespoň dvě nejpoužívanější ROC křivka Křivka ROC (Receiver Operating Characteristic) je známá z oblasti teorie detekce signálu. Poprvé byla použita během druhé světové války k analýze radarového signálu. V návaznosti útoku na Pearl Harbor v roce 1941 zahájila americká armáda výzkum pro zlepšení predikce japonských letadel z radarových vln. V roce 1950 byly ROC křivky uplatněny v oblasti psychofyziky pro měření slabých lidských signálů. V medicíně se ROC analýza rozšířila ve vyhodnocování diagnostických testů. Dále našly ROC křivky uplatnění v epidemiologii a medicínských výzkumech. V radiologii jsou využívány pro vyhodnocování nových technik. ROC křivka dává do souvislosti podíl TP a FP: Tyto charakteristiky se dají dát do vztahu se senzitivitou a specificitou:,. Používá se tedy i kritérium ROC křivku ilustruje obrázek

43 Obr. 20 ROC křivka pro dva modely (autor) ROC křivku lze použít u modelů, které klasifikaci doprovázejí vahou, resp. pravděpodobností. Křivku tvoříme tak, že měníme prahovou hodnotu (threshold), při které bude výsledek klasifikace interpretován jako ano. Bodu [0,0], tedy žádné klasifikaci do ano, odpovídá práh 1. Bodu [1,1], kdy jsou všechny klasifikace zařazeny do třídy ano, odpovídá práh 0. Změnou prahu lze simulovat chování modelu v případě změny poměru mezi počty příkladů obou tříd i změny cen za chybnou klasifikaci. ROC křivka tedy dává obraz o chování klasifikátoru bez ohledu na rozdělení a na cenu chyb. (BERKA 2009) Ideálním případem je, pokud by křivka procházela bodem [0,1], což by znamenalo správnou klasifikaci všech pozorování do třídy ano. Proto hledáme takový model, kde se křivka pohybuje směrem vlevo a nahoru. Můžeme tedy vycházet z plochy pod křivkou (AUC Area Under Curve). Při náhodném prediktoru bude plocha pod křivkou tvořit 50 %. Při naprosto ideálním stavu, kdy by křivka procházela bodem [0,1] by AUC tvořila 100 % plochy. Existují případy, kdy pro dva různé modely vznikne stejná plocha pod křivkou. V této situaci výběr modelu závisí na konkrétních požadavcích. Na obrázku 21 jsou dvě ROC křivky pro různé modely, kdy AUC je stejná. Model 2 je vhodnější pro nižší poměr FP a model 1 naopak pro vyšší poměr FP. (TAN et. al. 2004) 36

44 Obr. 21 Křivka ROC pro dva modely se stejnou AUC (autor) Křivka navýšení (lift chart) Křivka navýšení se často používá v marketingu. Vezměme situaci, kdy je třeba poslat klientům nabídku nějakého produktu. Ze zkušenosti víme, že na takovou nabídku odpoví velice málo (například 1 %) oslovených zákazníků. To znamená, že většina dopisů s nabídkou je odeslána zbytečně. Při tvorbě modelu bychom tuto skutečnost chtěli vzít v úvahu. To umožní křivka navýšení, která dává do souvislosti podíl respondentů, kteří odpověděli ( ) s podílem odeslaných dopisů ( ). Tato křivka lze vytvořit pouze u modelů, které nemají binární výstupní proměnnou. Klasifikace musí být doprovázena numerickou hodnotou, která vyjadřuje, jako moc si klasifikátor věří při svém rozhodnutí pro daný příklad (pravděpodobnost, váha). Lze tedy křivku navýšení vytvořit např. pro neuronové sítě a bayesovské klasifikátory. Máme uspořádaný úsek příkladů, seřazený podle pravděpodobnosti (váhy) sestupně. Na tomto úseku se vytvoří dílčí matice záměn s hodnotami,,,. Hodnoty a se vynesou do grafu. Křivka navýšení vždy prochází bodem [0,0] (nepošleme-li žádný dopis, nedostaneme žádnou odpověď) a bodem [1,1] (pošleme-li dopisy všem, zachytíme všechny respondenty). Model bude tím lepší, čím bude křivka navýšení ležet nad diagonálou reprezentující náhodný výběr. (BERKA 2009) Můžeme mít zkušenost, že na poslanou reklamu domácnostem reaguje 0,1 %, tj respondentů. Předpokládejme, že se nám podaří pomocí modelu určit podmnožinu domácností (tj. 10 % původního souboru), ze kterých odpoví 0,4 % (400). Toto navýšení poměru odpovědí se nazývá lift faktor a v tomto případě se rovná číslu 4. Pokud známe cenu zásilky a potenciální zisk, lze určit, do jaké míry je tato reklama návratná. Křivka navýšení s uvedeným příkladem je znázorněna na obrázku 22. (WITTEN et. al. 2000, s. 141) 37

45 Obr. 22 Křivka navýšení lift chart (autor) Occamova břitva Pokud dojde při porovnávání modelu ke shodě ve správnosti (chyby), vstupuje ještě do rozhodování další kritérium. Jedná se o filozofický předpoklad, který říká, že nejlepší vědecká teorie je ta nejjednodušší, která popisuje všechna fakta. V případě DM a porovnávání modelů je tedy lepší ten, který model je menší (méně pravidel, menší strom apod.). V teorii učících se systémů má tento předpoklad jednoduchosti podobu principu minimální délky popisu (MDL Minimum Description Length). (BERKA 2009) 2.4 Zhodnocení datově orientované analytiky Předchozí kapitoly nastínily základní metody různých přístupů k analýze. Tradiční Business Intelligence řešení poskytuje analytikům a řídícím pracovníkům pohled na data z různých perspektiv a podle oboru zájmu. Vedle základních technik pro provádění analýz, jako jsou kontingenční tabulky a reporty, jsou k dispozici rozmanité nástroje pro predikci na základě trendu apod. Kromě těchto základních nástrojů se v současnosti nabízí také široké možnosti vizualizace těchto výsledků. Základní metody OLAP pokrývají většinou jedno faktorový přístup zobrazení. Jedná se například o zobrazení klasických tabulek (prodej podle regionu) nebo kontingenčních tabulek (prodej podle regionu a produktové řady). Nejtradičnější analytikou je deskriptivní analytika a ta tvoři dnes většinu všech obchodních analýz. Tato popisná analytika je retrospektivního charakteru a snaží se na základě pohledu do historických dat určit příčiny úspěchu či neúspěchu. Naprostá většina manažerských výstupů v podobě reportů prodejů, marketingových analýz, operativních reportů a finančních výsledků je založena hodnocení výsledků minulého období. V případě OLAP je navíc omezující vlastností předem daná struktura kostky, což je do značné míry rigidní faktor. Další metriky si manažer většinou sám nepřidá a je odkázán na původní návrh datového modelu, případně na dodatečné změny dodavatelem (pokud jsou možné). 38

46 Výstupy z těchto analýz jsou většinou statické a postrádají dynamickou složku, tedy časové charakteristiky. Pro pochopení příčin zjištěného výsledku jsou nutné dobré znalosti sledované problematiky, což vyžaduje specializovaného analytika. Většinou tyto výsledky nejsou provázány v rámci podniku a řeší pouze konkrétní dílčí problém či oblast činnosti, bez kontextu na další procesy v rámci organizace. Dalším typem analytiky je prediktivní analýza. Tento přístup se na základě historických dat snaží předpovědět budoucí trend nebo alespoň určit pravděpodobnou variantu budoucí situace. Prediktivní analytika již zahrnuje podstatně více možností v porovnání s klasickou OLAP analýzou. Lze určit, který faktor má na výslednou hodnotu zásadní vliv a například při použití rozhodovacího stromu lze vytěžit velmi srozumitelná pravidla. Tento přístup také vyžaduje specializovaného analytika, který navíc kromě dobré znalosti dané obchodní problematiky ovládá statistické metody a metody Data Miningu. Obecně ale tato analýza může přinést velké úspory, zejména v marketingu, kde je tento typ prediktivní analýzy rozšířený. Díky indukci pravidel je navíc možné získat nové znalosti, které původně analytik neměl. Tato analytika navíc představuje velmi dobré využití v automatizovaném zpracování nových dat, kdy je na základě modelu prováděno skórování dat. Nicméně je důležité pamatovat na zastarávání modelu a provádět validaci, případně generovat nový model. Zastarávání modelu bude záviset na charakteru prostředí, ve kterém se organizace nachází. V případě statického prostředí může model vydržet s dobrými výsledky dlouho a naopak ve velmi dynamické prostředí, kde se mohou vztahy dat (pravidla) změnit v průběhu měsíce, může být nasazení automatického skórování velmi problematické, pokud ne přímo nemožné. Právě pro dynamické prostředí je potřeba zkrátit reakční dobu a získat zpětnou vazbu k aplikované obchodní strategii. Posledním typem je preskriptivní analytika. Tento přístup jde nad rámec predikování určité hodnoty, přidává navíc vhodná opatření a akce plynoucí z predikce. Preskriptivní analýza ukáže rozhodujícímu pracovníkovi možné implikace jednotlivých rozhodnutí. Pomocí této analytiky jsem schopni odpovědět na otázku, co se stane, kdy a proč. Lze tak zkoumat rozmanité scénáře, vliv konkrétních rozhodnutí a další vztahy nejrůznějších faktorů. Kombinací prediktivní a preskriptivní analytiky lze dosáhnout lepší účelnosti a efektivnosti. Příkladem může být identifikace faktoru, který ovlivňuje poptávku cílové skupiny po konkrétním produktu. Tento faktor nám pomůže nalézt prediktivní analytika. Preskriptivní analýza nám pomůže optimalizovat plánování, výrobu, zásoby a celý dodavatelský řetězec, aby poptávaný produkt byl dodáván co možná nejefektivněji. K aplikaci preskriptivní analytiky nám pomohou nástroje znalostního managementu, které budou popsány v dalších kapitolách. 39

47 3 Knowledge management Tato kapitola probere problematiku oblasti znalostního managementu. Pro pochopení funkce znalostních modelů bude vysvětlen základní koncept pojmu znalost, následně budou uvedeny fáze tvorby modelu a jazyky, které lze při tvorbě využít. Výstup této kapitoly tvoří znalostní vrstvu, která bude v aplikační části dále integrována do architektury BI řešení. 3.1 Koncept znalostí Znalost je stále více uznávána jako nová strategická výhoda organizace. Nejvíce zavedené paradigma je, že znalost je síla. Proto je v zájmu člověka hromadit znalosti a držet si tak strategickou výhodu. Společným postojem většiny lidí je spoléhat se na znalosti, protože právě to je činí důležitými pro organizaci. Takový člověk se stává aktivem a je pro organizaci přínosný. Dnes je znalost stále považována za sílu, ve skutečnosti za enormní sílu, ale chápání tohoto pojmu se změnilo a zejména to platí v kontextu s organizací. Nové paradigma zní, že znalost musí být v rámci organizace sdílena, aby byl zajištěn růst a pokrok. Bylo prokázáno, že organizace sdílející znalosti mezi vedením a zaměstnanci roste rychleji a je stále silnější, jinými slovy je více konkurenceschopná. Jádro znalostního managementu tedy tvoří sdílení znalostí. Za účelem pochopení znalostního managementu je nejdříve nutné pochopit koncept samotné znalosti, jak se liší od informací a od pouhých dat. Na začátku máme data, která představují čísla, slova nebo jen jednotlivá písmena jsou bez jakéhokoliv kontextu. Nemají žádnou smysluplnou vazbu na cokoliv jiného. Pouhý sběr dat není informace. To znamená, že pokud není žádný vztah mezi kusy dat, neexistuje zde ani informace. Informaci vytváří pochopení vztahu sbíraných dat, nebo případně pochopení provázanosti mezi kolekcemi dat a ostatních informací. Jinými slovy, základním prvkem pro existenci informace je kontext, vztah mezi kusy dat. Vztah mezi daty a informacemi je zachycen na schématu

48 Obr. 23 Konceptuální postup od dat ke znalostem (URIARTE 2008) Obecně lze říci, že informace jsou v čase relativně statické a mají lineární charakter. Informace pouze stanovuje vztah mezi daty, tedy neposkytuje základní pochopení, proč data jsou právě taková a jak se mohou měnit v čase. Ve stručnosti, informace je vztah mezi daty, v kontextu k jejich významu a nabízí jen malou implikaci pro budoucnost. Pokud se informace dále zpracovává, má potenciál stát se znalostí. Informaci lze považovat za zpracovanou, pokud je možné určit vzor vztahů mezi daty a informacemi. Když umíme porozumět těmto vzorům a jejich implikacím, potom se kolekce dat a informací mění ve znalost. Na rozdíl od pouhé informace, která je závislá na kontextu, samotná znalost má tendenci vytvářet svůj vlastní kontext. (URIARTE 2008, s. 4) Typy znalostí V moderní ekonomice je využitelná znalost považována za konkurenční výhodu organizace. Tato výhoda je realizována prostřednictvím plného využití informací a dat spojeného s využitím lidských dovedností, myšlenek a motivace. V souvislosti s organizací, znalost je produktem a je systematicky aplikována na data a informace. To je výsledkem učení, který poskytuje organizaci jedinou udržitelnou konkurenční výhodu. Znalost jako taková se stala základním přínosem, který je v dnešní ekonomice důležitější než práce, půda a kapitál. Obecně existují dva typy znalostí: tacitní znalosti a explicitní znalosti. Tacitní znalost je uložena v mozku člověka, explicitní znalost je vyjádřena v dokumentech a jiných možných formách uložení. Explicitní znalost tedy může být skladována nebo začleněna do zařízení, produktů, procesů, služeb a systémů. Oba typy znalostí mohou vzniknout jako výsledek interakce nebo na základě inovačního procesu. Dále mohou vzejít z partnerství a aliancí. Prostupují každodenním fungováním organizací a přispívají k dosahování jejich cílů. Tacitní i explicitní znalosti umožňují společnosti reagovat v nových situacích a vznikajících příležitostech. 41

49 Tacitní znalosti Tacitní znalost vzniká skrze učení a zkušenosti. Je vyvíjena procesem interakce s ostatními lidmi. Tacitní znalost roste pomocí praktikování pokusů a na základě zkušeností z úspěchu či neúspěchu. Je tedy kontextově specifická. Je jí těžké formálně vyjádřit, zaznamenat nebo předat ústně. Zahrnuje subjektivní poznatky, intuici a domněnky. Vzhledem k tomu, že tacitní znalost je vysoce individuální, závisí velmi na schopnostech a ochotě osoby tuto znalost zprostředkovat ostatním. Sdílení tacitních znalostí je velkou výzvou mnoha organizací. Tento typ znalostí může být sdělován pomocí rozdílných aktivit a mechanizmů. Mezi aktivity mohou patřit konverzace, workshopy, různá školení apod. Mechanizmy zahrnují mimo jiné použití informačních technologií. Zejména různé nástroje pro týmovou komunikaci, y, groupware, rychlé zprávy a v poslední době také sociální sítě. Princip sociálních sítí se snaží implementovat softwarové firmy a příkladem může být Kenexa, kterou v roce 2012 koupila společnost IBM. Tato platforma na bázi sociální sítě slouží ke spolupráci mezi experty a sdílení znalostí technologické integrace. Cílem organizace je identifikovat tacitní znalost, která může být užitečná. V moment, kdy je tato znalost nalezena, stává se pro organizaci velmi cenným aktivem, protože ji lze těžce replikovat. To, proč je tacitní znalost konkurenční výhodou organizace, je právě její charakteristika unikátnosti a složitého napodobení. Proto je pro organizaci nezbytné, aby objevila možnosti jak tyto znalosti nalézt, šířit a využít. Jedná se o optimální využívání intelektuálního kapitálu zaměstnanců. V každé společnosti jsou tacitní znalosti důležitým předpokladem pro dobré rozhodování. Pokud bude ve firmě nové vedení, těžko může činit dobrá rozhodnutí, dokud nebude mít tacitní znalosti o fungování firmy. Využití tacitních znalostí k rozhodování a k utváření hodnot je podstatou učící se organizace. Management a zaměstnanci by se měli naučit vstřebávat relevantní znalosti prostřednictvím zkušeností a praxe. Dále je potřeba tyto poznatky umět šířit, ideálně prostřednictvím osobní a skupinové interakce uvnitř organizace Explicitní znalosti Explicitní znalost je kodifikována. Je uložena v dokumentech, databázích, webových stránkách, ech apod. Tato znalost může být snadno šířena ostatním formou systematického a formálního jazyka. Explicitní znalost je vše, co může být kodifikováno, dokumentováno a archivováno. Patří mezi ně znalostní aktiva ve formě reportů, poznámek, byznys plánů, výkresy, patenty, ochranné známky, zákaznické seznamy, metodologie apod. Představují hromadění zkušeností organizace, uchované ve formě snadno přístupné zúčastněným stranám a v případě potřeby se dají snadno replikovat. Ve většině organizací jsou tyto znalosti uchovány pomocí informačních technologií. Jde zejména o efektivní práci s těmito znalostmi. V případě stohů papírových dokumentů se nejedná o dostatečně efektivní způsob, jak se znalostmi zacházet. Explicitní znalosti nejsou od tacitních zcela odděleny, naopak se vzájemně doplňují. Bez tacitní znalosti by bylo obtížné, pokud ne nemožné, porozumět explicitním znalostem. Například člověk bez znalostí technických, matematických nebo vědeckých (tacitních) by 42

50 těžko chápal vysoce komplexní matematickou formulaci nebo zapsaný chemický proces, i když by se jednalo o snadno dostupnou explicitně vyjádřenou znalost v rámci organizace. Proces konverze tacitních znalostí na explicitní nemůže začít do té doby, dokud je tacitní znalost ukryta v nepřístupné podobě uvnitř osoby, která tuto znalost vlastní. S tím může souviset i ochota dané osoby se o znalost podělit. I když je vlastník ochoten se podělit, může nastat problém ve schopnosti danou znalost vyjádřit Interakce mezi typy znalostí Osobní znalost se může stát organizační znalostí skrze dynamický proces interakce mezi tacitní a explicitní znalostí. Tento dynamický proces je základním faktorem při tvorbě znalostí v organizaci. Interakce mezi dvěma typy znalostí je známa jako 4 způsoby konverze znalostí (Nonaka 1996). Proces vytváření znalostí je založen na pohybu po spirále mezi tacitní a explicitní znalostí. Obrázek 24 představuje zmíněnou spirálu, která přechází mezi druhy znalostí. K tacitní znalosti K explicitní znalosti Z tacitní znalosti Socializace Externalizace Z explicitní znalosti Internalizace Kombinace Obr. 24 Spirála tvorby organizační znalosti (Nonaka) Socializace je proces vytváření společných tacitních znalostí prostřednictvím sdílení zkušeností. V procesu socializace je prostorem interakce stejné místo a čas jednotlivců, kteří sdílejí zkušenosti. Externalizace je proces vyjadřování tacitních znalostí do takové explicitní znalosti, která lze vyjádřit jako koncept nebo diagram. Tento proces často využívá metafory, analogie a nákresy. Fáze externalizace je spouštěna dialogem, který směřuje k vytvoření konceptu z tacitní znalosti. Dobrý příkladem externalizace je koncept nového produktu nebo vývoj nového výrobního procesu. V tento okamžik jsou tacitní znalosti v mozku odborníků vyjadřovány jako koncepty nebo nákresy, které je možno dále studovat a utvářet. Kombinace je proces sestavování nové explicitní znalosti do systémové znalosti. Například výzkumník může sestavit soubor dříve existujících explicitních znalostí s cílem připravit specifikaci nového prototypu produktu. Nebo inženýr může kombinovat dostupné výkresy a specifikace návrhu k vytvoření nové podoby procesu či zařízení. Běžně se vyskytuje kombinace nově vytvořeného konceptu a existující znalosti. Internalizace je proces osvojení si explicitní znalosti do formy tacitní znalosti (know-how, operativní znalost). Výborným příkladem tohoto procesu je learning by doing, tedy učení se formou praktické zkušenosti. Explicitní znalost může být vyjádřena formou textu, zvuku nebo videa. Typické je použití různých manuálů a příruček, nebo instruktážních 43

51 videí. Tyto instrukce se po naučení stávají součástí tacitních znalostí člověka. (URIARTE 2008, s. 8) Znalosti vznikají na základě učení, které může být individuální, strojové a organizační. Individuální učení představuje tvorbu nové tacitní znalosti v podobě zkušeností, chování, dovedností, upevňování hodnot a vytváření preferencí. To je zajištěno kognitivní funkcí mozku, například formou četby, poslechu a pozorovaní. Úložiště znalosti je tedy lidský mozek. Tento proces je různě dlouhý, odvíjí se od intelektu a schopnosti porozumění. Důležitá je také složitost explicitně vyjádřené znalosti. Dalším typem učení je strojové, které je založeno na algoritmech. Tento typ učení byl popsán v předešlé kapitole o Data Miningu. Strojové učení může být automatizované nebo za pomoci experta (učení s učitelem). Naučená znalost ze strojového učení může být uložena například v neuronové síti, která pracuje na principu paralelní optimalizace. Posledním typem je organizační učení, které je pro nás v tomto kontextu nejdůležitější. Je realizováno na principu skupinového učení, meetingů a seminářů. Organizační učení by mělo kompenzovat migraci odborníků. V případě přílivu odborníků je tedy důležité jejich znalosti zužitkovat a uchovat do znovupoužitelné podoby. V případě odlivu expertů je poté možno tyto znalosti replikovat. Možnost opakovatelné použitelnosti do značné míry závisí na srozumitelném zaznamenání dané znalosti. K tomuto procesu učení je potřeba expertních znalostí, zkušeností a důkazů. Důležitým prvkem jsou také data, ze kterých lze znalosti dolovat pomocí zmiňovaných metod DM. Organizační znalost by měla být zaznamenána ve všeobecně přijatelné formě a ve srozumitelném jazyce pro všechny zúčastněné strany. K tomu ideálně slouží implementace znalostně orientované komunikační platformy. (VORÁČEK 2012) Jazyk a znalosti Znalosti jisté, nejisté i subjektivní jsou většinou vyjadřovány pomocí jazyků. Tyto jazyky lze rozdělit na formální a neformální. Z pohledu využití vhodného jazyka v manažerském prostředí je použití formálního jazyka značně komplikované. Formální metody popisu jsou vhodné pro matematiku, statistiku, formální heuristiku a empirii. Jsou typické abstraktností, výrazovou omezeností a je problematické je validovat. Díky tomu se v manažerském prostředí nemohou prosadit. Formální jazyk pracuje se sekvencemi znaků (symbolů) a tyto znaky patří do konečné množiny - abecedy. Sekvence znaků se označuje jako slovo. Množině slov v určité abecedě se říká jazyk. Příkladem může být abeceda, která se označuje jako: { } nad kterou hledáme slova (řetězce). Jazyk, obsahující hledaná slova nad abecedou se značí. Tento jazyk se může definovat různými způsoby, například všechna existující slova, 44

52 nebo pouze slova vyhovující regulárnímu výrazu. Slova se mohou generovat na základě formální gramatiky, která se dále dělí podle Chomského hierarchie 16. Omezení tohoto jazyka plynou v teoretické rovině v rozpoznatelnosti, výrazové síle a shodnosti. Z praktického hlediska plynou omezení ve srozumitelnosti, jazyk je nepřirozený a postrádá jednoduchost. Pomocí formálního jazyka mohou vznikat jednoduché vztahové znalosti (např. entity v databázi). Na základě těchto znalostí nelze příliš odvozovat. Dalším typem jsou strukturované (dědičné) znalosti. To jsou specifické třídy, které dědí atributy z obecnějších tříd. Jsou vyjádřeny pomocí hierarchie, aby bylo patrné, jaké atributy dědí z nadřazených tříd. Příkladem mohou být rámce a sémantické sítě. Inferenční znalosti, tedy deklarativní, jsou základem systémů založených na pravidlech a znalostech. Příkladem jsou různé expertní systémy, které pomocí určených pravidel vedou uživatele k cíli. Tedy od obecného problému ke konkrétnímu řešení. Odvozovací engine je v tomto případě počítačový program, který vytváří zdůvodňování na základě pravidel. Tato pravidla by měla být založena na logice (výroková logika, predikátová logika prvního řádu, epistemická logika, modální logika, temporální logika a fuzzy logika). Posledním typem je procedurální znalost. Ta obsahuje zakódované kroky, jak dosáhnout určitého řešení. Procedurální znalost se liší od deklarativní v tom, že může být aplikována přímo na určitý úkol. Deklarativní znalost spočívá v konstatování stavu řešeného problému, vlastností a vztahů. Procedurální znalost představuje abstraktní model orientovaný na pracovní postup, tedy algoritmus. Je často vyjádřen pomocí schématu či síťového grafu. 3.2 Definice pojmu Knowledge Management Neexistuje žádná obecně přijatá definice pojmu Knowledge Management. Existuje ale množství definic od různých expertů. Knowledge Management, tedy znalostní management, lze obecně charakterizovat jako konverzi tacitních znalostí na explicitní a jejich sdílení uvnitř organizace. Přesněji řečeno, prostřednictvím znalostního managementu vytváří organizace hodnotu ze svého intelektuálního vlastnictví. Jedná se o proces, který se zabývá identifikací, získáváním, šířením a udržováním znalostí, které jsou pro organizaci užitečné. Znalostní management má v širším kontextu mnoho různých definicí. Všechny ale stojí na stejné myšlence, každá z nich řeší určitý aspekt znalostního managementu, viz obrázek Hierarchii vytvořil Avram Noam Chomsky v roce 1956, skládá se z frázové, kontextové, bezkontextové a regulární gramatiky. 45

53 Výsledkově orientovaná definice Procesně orientovaná definice Technologicky orientovaná definice Mít správné znalosti na správném místě, ve správný čas a ve správné formě Systematický management procesů, podle kterých je znalost identifikována, vytvořena, sdružována, sdílena a aplikována Business Intelligence + spolupráce + vyhledávací nástroje + inteligentní agenty Obr. 25 Definice znalostního managementu (Benjamins) Znalostní management zahrnuje dva hlavní aspekty, informační management a řízení lidí. Proto je nutné zabývat se oběma oblastmi, nelze se změřit pouze na informační hledisko. V procesu získávání tacitních znalostí je velmi důležité brát v úvahu kulturní a sociální hodnoty, postoje a ambice. Tento proces utváření znalosti nemůže být úspěšný pouze díky informačnímu managementu. 3.3 Systémové myšlení a znalostní management Pro plné využití potenciálu znalostního managementu je nutné zavést koncept systémového myšlení. Znalost je tvořena souborem vztahů mezi informacemi. To nám dává lepší představu o tom, jak se daná znalost může měnit v čase a jaké změny či výsledky očekávat. Dalším stupněm nad znalostmi je moudrost. Ta není tvořena pouhou kolekcí znalostí, ale vzejde z pochopení základních principů odpovědných za vzory, představující samotné znalosti. Moudrost má ještě větší tendenci tvořit vlastní kontext. Tyto základní principy, které představují určitou univerzální pravdu, lze reprezentovat pomocí archetypů. Moudrost dokáže odpovědět na otázku, proč organizace roste či upadá. Pokud bude člověk zkoumat individuální komponenty (akce) firmy, které jsou vyjádřeny pomocí znalostí, nenalezne ty pravé významné charakteristiky růstu. Pouze na základě propojení vzorů (znalostí), jejich interakci a vývoji v průběhu času lze pochopit princip vykazující charakteristiku růstu organizace (systému). Systémové myšlení obsahuje metody, díky kterým lze snadněji pochopit složité manažerské problémy. Jeho zásadou je dívat na podnik jako na celek, kde jednotlivé jeho části mezi sebou reagují a ovlivňují se. (BELLINGER 2004) Mezi největší obhájce systémového myšlení patří bezesporu Peter Senge, který napsal knihu The Fifth Discipline. Pátá disciplína představuje přístup integrující disciplíny osobního mistrovství, mentálních modelů, budování sdílené vize a týmové učení. Tato integrace je důležitým předpokladem pro učící se organizaci. 46

54 3.4 Dynamické řízení organizace Dynamický management je řízení, které očekává, že cílový stav systému se mění (tj. cíle organizace nebo alternativní cesty budoucnosti, které jsou oceněny). Nemusí se nutně jednat o změny, které jsou předvídatelné. Toto očekávání lze rozdělit na dva předpoklady: 1. změny cílového stavu systému jsou očekávané, protože v situacích reálného života jsou tyto změny cílů naprosto běžné, 2. změny cílového stavu systému jsou považovány za žádoucí, protože cílové systémy delší dobu statické naznačují, že manažeři se ze svých rozhodnutí mnoho nepoučili. Dynamické řízení je aplikovatelné na všech úrovních, od velké organizace až po jednotlivce. Přístup je dobře použitelný jak na běžné operační činnosti, tak na jednotlivé projekty. Při řízení organizace existuje míra rizika a nejistoty. S tím se lze vypořádat v zásadě dvěma způsoby: ignorování tohoto faktu, nebo se podle něj záměrně řídit a očekávat nečekané události. Mezi základní výhody dynamického řízení patří lepší rozhodnutí a přesnější pohled do budoucnosti, zahrnující všechny formy rizika a nejistoty. Pokud jsou činnosti vedoucí k dlouhodobému úspěchu řízeny pomocí nejvíce informovaného pohledu (zohledňující nejistoty), lze očekávat větší přínos každé této činnost. Tento přístup je účinnější, než řízení zaměřené pouze na cíl, které může být až rok zastaralé. Další výhodou je nižší plýtvání času manažerů. Jedním z důvodů mrhání časem je rozdílnost mezi plánovaným stavem a skutečným stavem. Jak se rozdíl mezi původními cíli a aktuálními požadavky zvětšuje, rostou i rozpory mezi plánem a skutečností. Manažeři musejí trávit více času nad hledáním příčiny tohoto rozdílu proti plánu, který může být tou dobou zastaralý a jeho relevance se postupem času snižuje. Dynamický management se přizpůsobuje rychleji aktuálním požadavkům, které se objevují. Tím snižuje rozdíl mezi plánovaným stavem a skutečností, což má v důsledku i menší plýtvání času řídících pracovníků. Jedním z klíčových konceptů dynamického managementu je monitorování a reakce řízení na základě nově vzniklé informace. Ve statickém řízení je častější periodická frekvence monitoringu. V případně dynamického řízení se tato frekvence kontroly mění, protože reaguje podle potřeby aktuální situace. Důležitým rozdílem je tedy efektivní zpětná vazba. Žádný proces analyzování není užitečný, pokud sledovaná situace nemá efektivní odezvu, kterou můžeme do analýzy zahrnout. K tomu slouží mnoho technik, od jednoduchých myšlenkových procesů až po sofistikované metody modelování a rozhodovací techniky. (LEITCH 2002) 3.5 Transformace k procesnímu řízení V rámci zvyšování výkonnosti organizace se obecně opouští od klasického funkčního řízení a přechází se na procesní řízení. Na tuto transformaci má vliv zejména požadavek vysoké kvality produktů, která je zároveň podmíněna kvalitními procesy a dalším faktorem je čas. V dynamickém prostředí musí organizace reagovat velmi flexibilně, je neustále pod tlakem zkracování lhůt a produkčního cyklu, je vyvíjen tlak na rychlou změnu procesů. Ve funkční 47

55 struktuře není vždy zcela jasné, kdo je za procesy zodpovědný. Přínosy procesního řízení jsou v jasně vymezených kompetencích a odpovědnostech za procesy, lze snadno řídit výkonnost a efektivitu procesu. Díky dobře definovaným procesům lze lépe pochopit chod celé organizace a tím vzniká potenciál pro zlepšování a optimalizace. Další výhodou je jasně definované workflow, tedy oběh dokumentů a dat. Obecně mezi cíle procesního řízení patří: kvalita zaměření na zájmy zákazníka, zvýšení spolehlivosti produktů, náklady odstranění aktivit, které nemají přidanou hodnotu, čas redukce čekacích dob, přepravních a nevyužitých časů. Přechod k procesnímu řízení organizace vyžaduje definování procesů. Dalším krokem je určit majitele procesu. V této fázi je nezbytné mít mandát od nejvyššího vedení, protože dochází k přesunu kompetencí a je tedy nutná podpora vedení. Každý proces vyžaduje nastavení regulace. Je nutné určit, co se bude sledovat, jak se budou provádět korekce v případě odchylky od plánu. Procesy se dále provážou, vytváří se procesní síť. Procesní síť představuje dlouhodobé, cílevědomé dohody mezi subjekty organizace, které jim umožňují získat a udržovat si konkurenční výhodu vůči jiným organizacím. Síťové dohody mají specifický systém hodnot, které vytvářejí důvěru a vzájemnou podporu nezbytnou pro existenci a stabilitu sítě. Tyto sítě mohou být různého typu, například: AMÉBA 17 struktura bez hierarchie, volně svázaná síťová organizační struktura složená z autonomních vnitřních podnikatelských jednotek (SBU), blízká fungování biologických systémů. Tyto jednotky SBU se skládají z CBU (zákaznická podnikatelská linie, mající marketingovou autonomii, vytváří produkty pro externí zákazníky) a IU (vnitřní insourcingová struktura, vytváří interní produkty a služby, které případně může nabízet i externě). Tuto strukturu ilustruje obrázek 26. (PROCHÁZKA 2005) Obr. 26 Schéma struktury Améba (Businessvize) 17 AMÉBA vytvořil Dr. Kazuo Inamori, zakladatel společnosti Kyocera 48

56 Struktura améba vznikla z důvodu zlepšení flexibility vůči menším firmám. Díky takovému uspořádání si může i velká organizace udržet dostatečnou pružnost v rámci trhu, nedochází k rigidnosti a je schopna inovovat. Struktura je navíc specifická v tom, že zaměstnanec není přidělen na pozici, ale dostává se do améby dobrovolně na základě své specializace, funguje zde vnitropodnikový trh práce. Zaměstnanci často mezi amébami přecházejí, jedná se obvykle o dočasnou strukturu, která se neustále mění (zvětšuje, zmenšuje, případně zaniká). 3.6 Nástroje znalostního managementu Při řešení reálného problému v organizaci s využitím znalostního managementu prochází toto řešení různými fázemi. Tyto fáze zachycuje životní cyklus znalostního modelu, viz obrázek 27. Obr. 27 Systémový pohled na řešení problému (MITROFF et. al. 1977) Iniciační fáze znalostního modelu vzniká existencí reálného problému či potřeby. Ačkoliv je reálná skutečnost prvním impulsem, nelze říci, že v této fázi model začíná a končí. Znalostní model většinou není konečné řešení a celý tento cyklus tedy tvoří jednu iteraci. V první fázi při přechodu do konceptuální fáze dochází k formulaci problému a k obecnému vymezení dané problematiky. Dále proces zahrnuje tvorbu znalostí a syntézu znalosti (problému) do takové podoby, aby ji bylo možné postoupit další fázi modelování. Vědecký model již představuje formálně vyjádřenou problematiku a lze jej použít pro řešení problému. Kruh představuje vzniklé řešení, které lze aplikovat na problémovou situaci. Vztah mezi realitou a vědeckým modelem (modelem reality) představuje stupeň korespondence. Vertikální vztah mezi řešením a konceptuálním modelem určuje, jak navržená řešení korespondují s původním konceptuálním řešením. (MITROFF et. al. 1977, s. 115) 49

57 3.6.1 Tvorba znalostí (Knowledge Engineering) Znalosti mají svůj životní cyklus, kde na počátku stojí požadavek nové znalosti. Tato fáze může být iniciována vědomě, kdy chceme zachytit objevenou tacitní znalost, nebo může vzniknout požadavek na řešení určitého problému. Při tvorbě znalosti je nedílnou součástí procesu získávání znalostí (Knowledge Acquisition). K získávání znalostí dopomáhají další dílčí techniky. Prvním krokem je analytická fáze, kdy se snažíme znalosti nalézt, vynést je na světlo (Knowledge Elicitation). Metoda nalézání (elicitace) znalostí vychází z předpokladů: většina znalostí je v hlavách expertů, experti mají obrovské množství znalostí, experti mají mnoho tacitních znalostí, neumí říci přesně, co všechno znají a umějí, tacitní znalosti je velmi obtížné (někdy téměř nemožné) popsat, experti jsou velmi zaneprázdnění a cenní, žádný expert nezná vše. Techniky, které mají za úkol vynesení znalostí na povrch, musí být dostatečně efektivní. Kromě rychlého nalezení znalostí se musí zaměřit hlavně na důležité a užitečné znalosti. Znalosti je nutné sloučit od více odborníků a musí být možné je validovat a udržovat. Důležitá vlastnost těchto technik je, aby umožnili porozumění nalezených znalostí i neodborníkům. Mezi základní techniky tohoto procesu patří: Techniky generování protokolu zahrnují různé typy interview (nestrukturované, středně strukturované a strukturované), techniky reportingu (sebe reportování a stínování 18 ) a pozorovací techniky. Techniky analyzování protokolu jsou použity přepisy interview nebo jiné textové poznámky, slouží k identifikaci různých typů znalostí (cíle, rozhodnutí, vztahy, atributy), tvoří můstek mezi protokolovými a modelovacími technikami. Techniky generování hierarchií slouží k sestavení hierarchických struktur, jako jsou různé sítě a rozhodovací stromy. Maticové techniky zahrnují konstrukci matic, které obsahují problémy a možná řešení. Zahrnují užití rámců, které představují vlastnosti konceptů a techniky repertoárové mřížky pro nalezení, hodnocení, analýzu a kategorizaci vlastností konceptů. Třídící techniky jsou použity pro zachycení způsobu, jakým lidé porovnávají a třídí koncepty, může vést k nalezení znalosti o třídách, vlastnostech a prioritách. Úlohy s omezenými informacemi a procesy představují techniky, které limitují čas nebo informace, které má expert k vykonání úkolu. Například technika dvaceti otázek, která představuje efektivní cestu jak získat klíčové informace v určité doméně a seřazené podle priorit. Techniky založené na diagramech zahrnují generování koncepčních map, sítě přechodu stavů, diagram událostí a procesní mapy. Použití těchto technik je důležité 18 Sledování reportovaného pracovníka, osobní monitoring 50

58 zejména k zachycení úkolů a událostí, které řeší otázky: co, jak, kdy, kdo a proč. (BECHHOFER 2006) Fáze nalézání znalostí představuje netriviální proces, kde výstupem bývá definice hranic řešeného problému (systému, organizace) a určení všech klíčových atributů (zúčastněné strany, sjednocená terminologie a další). Další fáze představuje syntézu, tedy formální vyjádření nalezených týmových znalostí (Knowledge Representation). Syntéza zahrnuje obecné techniky vizualizace dat, informací, konceptů, strategií, struktur, procesů apod. Oblast reprezentace znalostí zahrnuje analýzu jak zdůvodňovat přesně a efektivně a jak využít sady symbolů k vyjádření faktů ve znalostní doméně. Slovník sestavený ze symbolů společně se systémem logiky umožňuje usuzování o objektech a lze díky tomuto spojení vytvářet v rámci znalostní reprezentace věty. Klíčovým atributem reprezentace je výrazovost. Čím je výrazovost vyšší, tím snadnější a kompaktnější je vyjádření faktu nebo znalosti. Dobrá reprezentace znalostí by měla pokrývat šest základních charakteristik: Pokrytí reprezentace musí pokrývat šířku a hloubku informace. Bez širokého pokrytí nelze odvozovat ani řešit nejasnosti. Srozumitelná lidem reprezentace je vnímána jako přirozený jazyk a logika v něm by měla volně proudit. Měla by podporovat modularitu a hierarchie tříd. Stejně tak by měla obsahovat jednoduché primitivní elementy, které jsou kombinovány do komplexních forem. Konzistence znamená odstranění redundancí nebo konfliktů vyjádřených znalostí. Efektivita Jednoduchá modifikace a aktualizace Podporuje inteligentní aktivity, které jsou použity ve znalostní bázi. Reprezentace zahrnuje zejména nástroje a postupy pro tvorbu strukturních i časových charakteristik znalostí. K tomuto účelu jsou využívány různé návrhové standardy, mezi nejznámější patří zejména: Unified Modeling Language (UML), Business Process Modeling Notation (BPMN), Event-driven Process Chain (EPC), Web Services Description Language (WSDL), XML Process Definition Language (XPDL), XML Schema Definition (XSD). (Software AG) Časové charakteristiky zkoumaného systému (znalostí) je potřeba vyjádřit ve srozumitelné formě, aby byly snadno pochopitelné a práce s nimi byla efektivní. Není účelem sestavovat složitý systém do formy diferenciálních a diferenčních rovnic, ale mnohem snadněji a efektivněji pomocí modelovacích jazyků sestavit simulační model a umožnit tak chování zkoumaného systému simulovat na počítači. 51

59 3.6.2 Základní modelovací jazyky učící se organizace K zachycení komplexity a heterogenity různých problémů v rámci organizace, ekonomiky a sociálních systémů existují v současné době tři nejrozšířenější simulační metodologie. Důležité je zejména pochopení chování systémů v čase, k tomu účelu slouží systémová dynamika (System Dynamics SD), diskrétní události (Discrete Event DE) a modelování založené na agentech (Agent Based AB) Systémová dynamika (SD) Systémová dynamika je vědní disciplína, která patří mezi systémové vědy. Zabývá se chováním systémů v čase, snaží se vysvětlit závislosti a vazby mezi jednotlivými veličinami systému. Pomocí systémové dynamiky může analytik lépe pochopit chování organizace, která představuje komplexní nelineární systém. Díky pochopení vztahů a ovlivňujících faktorů je poté snazší reagovat na změny a plánovat. Systémová dynamika představuje nástroj pro konstrukci modelu, který je reálněji sladěný s realitou než mentální model individuálního pozorovatele. Vývoj systémové dynamiky sahá do 50. let minulého století. Za jejím zrodem stojí Jay Wright Forrester, který je považován za průkopníka v oblasti kybernetiky a počítačů. Systémová dynamika je sadou konceptuálních nástrojů pro pochopení struktury a dynamiky komplexních systémů, a hlavně představuje rigorózní modelovací metodu pro sestavení formálního počítačového modelu. Díky tomu je velmi vhodná pro simulaci složitých systémů, kde pomáhá k nastavení efektivních politik v rámci organizace. Tyto nástroje dohromady nám dovolují vytvořit manažerské letové simulátory mikrosvěty, kde čas a prostor mohou být stlačeny a zpomaleny. Díky tomu lze zkoumat vedlejší efekty rozhodnutí, které se projeví v dlouhodobém horizontu. Na základě modelu lze lépe pochopit fungování komplexního systému, což vede k vytvoření lepších struktur a nových strategií pro úspěšnější organizaci. (STERMAN 2000, s. vii) Systémová dynamika je typicky používána v dlouhodobých, strategických modelech a předpokládá vysokou agregaci modelovaných objektů. Je tedy vhodná na řešení problémů, kde vysoká míra abstrakce nepředstavuje problém. Samotný model systémové dynamiky se skládá z diagramu stavů a toků (stock and flow). Nelinearita je do systému zavedena pomocí příčinných smyček (feedback loops), které ovlivňují toky. Příklad modelu systémové dynamiky ilustruje obrázek

60 Obr. 28 Model systémové dynamiky dravec a kořist (XJ Technologies) Uvedený model představuje dvojici diferenciálních rovnic, které popisují dynamiku predátora a kořisti v nejjednodušší podobě. Jedna populace predátorů a jedna populace kořisti. Tento model byl vyvinut nezávisle ve 20. letech minulého století autory Alfredem Lotkou a Vitem Volterrem. Model je charakteristický oscilací velikosti obou populací v čase, kdy vrchol populace predátora zaostává mírně za vrcholem kořisti (viz obrázek 27, pole výsledků simulace). Na základě tohoto modelu lze dospět k několika závěrům: a) populace kořisti má neomezené zdroje a kořist zemře pouze v případě, že je sežrána predátorem, b) kořist je jediným zdrojem obživy predátora a predátor zemře pouze hlady, c) predátor může spořádat neomezené množství kořisti, d) není zde žádná komplexita prostředí (obě populace se pohybují v homogenním prostředí). Tento jednoduchý model názorně ilustruje princip systémové dynamiky. Obsahuje stavy populací a příslušné toky. Šipky představují příčinné smyčky, které ovlivňují toky. U těchto smyček jsou důležitá znaménka a. Na základě těchto znamének se určuje typ smyčky, tedy zda se jedná o smyčku zesilující změnu (reinforcing loop) či vyrovnávající změnu (balancing loop). Zesilující smyčka je v tomto případě u populace kořisti, kdy zvyšování populace vede k vyšší porodnosti zajíců. Vyrovnávající smyčka je zde v případě rostoucí populace zajíců, která snižuje úmrtnost rysů. Systémová dynamika se svou abstrakcí od jednotlivých událostí a entit zaměřuje na celkový pohled a výslednou politiku. Při modelování pomocí SD je nutné si uvědomit, že tak jak pracuje model s agregáty, nelze jednotlivé položky ve stejném stavu (zásobníku) odlišit, nemají individualitu. Analytik, který pomocí SD modeluje, musí přemýšlet v podmínkách globálních strukturálních závislostí a musí pro toto modelování mít přesná kvantitativní data. (BORSHCHEV et. al. 2004) Diskrétní události (DE) Většina procesů, které můžeme pozorovat ve světě, se skládá z kontinuálních změn. Nicméně pokud chceme analyzovat tyto procesy, často je výhodnější rozdělit tento kontinuální proces na části, tedy diskrétní události. Díky tomu lze snadněji pochopit fungování procesu a zjednodušuje to analýzu. Metoda modelování pomocí diskrétních událostí aproximuje časově 53

61 spojitý reálný proces pomocí námi definovaných nespojitých událostí. Mezi typické události může patřit: příchod zákazníka do obchodu, dokončení vykládky kamionu, zastavení dopravníku, vydání nového produktu, hodnota zásob dosáhne prahové hodnoty apod. Při modelování pomocí diskrétních událostí je pohyb mezi body a vyjádřen pomocí dvou událostí a zpoždění. Příkladem může být pohyb vlaku z jednoho města do druhého, což by se vyjádřilo událostí odjezdu a událostí příjezdu. Pohyb vlaku je tedy vyjádřen pomocí časového intervalu mezi těmito dvěma událostmi, v modelování označováno jako zpoždění. Termín diskrétní události se používá hlavně v užším smyslu k označení procesně zaměřeného modelování (process-centric), které naznačuje využití v analýze procesů systému (organizace). Při analýze je na systém nahlíženo jako na sekvenci operací, které jsou vykonávány na entitách různého typu (zákazníci, dokumenty, součástky, datové pakety, vozidla, telefonní hovory a další). Entity v modelu vystupují jako pasivní prvky, přesto mohou mít atributy, které ovlivňují jejich zpracování a mohou definovat specifický průchod procesem. Modelování pomocí diskrétních událostí je realizováno na nízké až střední úrovni abstrakce, tedy nižší než systémová dynamika. Ačkoliv je každý objekt modelovaný individuálně jako entita, typicky nejsou zohledněny detaily na fyzické úrovni (geometrie, rychlost, akcelerace atd.). Tento typ modelování je velmi rozšířen a používán v oblasti výroby, v logistice a zdravotnických oborech. (ANYLOGIC) Existuje mnoho komerčních nástrojů, které podporují tento přístup modelování. Některé jsou vhodné pro obecné použití a některé jsou konkrétně specializované (služby, logistika, call centra). Jejich uživatelské prostředí a používané grafické komponenty se mohou velmi lišit, přesto základ stojí většinou na podobném výpočetním jádru pro simulaci diskrétních události. Toto jádro posouvá entity skrze nadefinované bloky. Proto lze modelování pomocí diskrétních událostí chápat jako algoritmus, který zpracovává obecné entity, typicky s využitím stochastických prvků. Stochastické prvky může představovat jednoduchý příklad, kdy pracovník vykonává určitou operaci. Pracovník dokáže odbavit entitu v určitém čase, ale tento čas není nikdy konstantní (v reálném životě), proto je nutné do tohoto typu modelování zavést vhodné rozdělení pravděpodobnosti. Konstantní čas procesu může samozřejmě existovat v určitých případech, zejména v rámci automatizované výrobní linky. Jednoduchý zápis modelu představuje typický příklad obsluhy klientů v bance, které znázorňuje obrázek

62 Obr. 29 Obsluha v bance schéma z programu Arena Na obrázku jsou patrné jednotlivé události (obdélníky), vstup a výstup zákazníků. Toto schéma znázorňuje kromě zmíněných událostí ještě logické prvky, které ovlivňují tok entit v diagramu. Obdélník s označením Tellers představuje dostupné zdroje, které jsou potřeba k obsloužení entit (zákazníků). Tyto modely vycházejí svým principem z teorie front a systémů hromadné obsluhy. Na klasifikaci obsluhového systému lze použít tzv. Kendallovu notaci, která se nejčastěji uvádí v podobě čtyř parametrů systému, zapsanou ve tvaru A/B/C/D, kde: A: vstupní tok, četnost příchodů do systému B: doba obsluhy zákazníka C: počet obslužných linek, obsluhovatelů D: kapacita systému Dalším pátým parametrem se může specifikovat frontový režim, tedy jak se zachází s nově vstupující entitou. Standardně se považuje za výchozí režim FIFO, ale mohou existovat následující režimy: FIFO (First In First Out) první vstupující je obsloužen jako první, LIFO (Last In Fist Out) poslední vstupující je obsloužen jako první, SIRO, RS (Search in Random Order, Random Selection) pořadí obsluhovaného závisí na náhodném výběru, SJF (Shortest Job First) nejdříve je obsloužen ten, jehož obsluha zabere nejkratší čas. I když pětiznaková Kendallova notace obsahuje všechny základní informace o systému, nepopisuje systém jednoznačně. Nebere v úvahu nastavitelnou trpělivost zákazníků, možnost předbíhajících zákazníků, proměnnou dostupnost obsluhy, režim obsazování linek apod. (ČVUT) Sledované metriky modelu diskrétních událostí tvoří čas strávený ve frontě, čas strávený v celém systému, délka fronty a využití zdrojů (obsluhy). Na základě těchto metrik lze model optimalizovat a navrhovat řešení. 55

63 Pro iniciační fázi modelu se může použít pevně daný počet entit v časovém intervalu nebo ho lze nahradit pravděpodobným výskytem v čase. Pravděpodobnost výskytu vstupujících entit do systému za časový (objemový) interval se vyjadřuje pomocí pravděpodobnostní funkce náhodné veličiny s Poissonovým rozdělením - : kde představuje střední hodnotu počtu výskytu jevu za časovou jednotku. Zpoždění entity ve frontě lze vyjádřit pomocí exponenciálního rozdělení. Hustota pravděpodobnosti pro exponenciální rozdělení náhodné veličiny je dána vztahem: { Distribuční funkce exponenciálního rozdělení náhodné veličiny je poté vyjádřena: { Technika modelování pomocí diskrétních událostí nachází velmi dobré uplatnění v simulaci reálného provozu. Díky možnostem současných nástrojů lze vytvářet virtuální továrny pro simulaci výroby a všech souvisejících procesů. Pomocí 3D grafických knihoven lze sestavit velmi detailně celou výrobní linku a získat tak konkrétní představu o celém simulovaném procesu. V rámci České republiky je v tomto oboru na vysoké úrovni zejména společnost Škoda Auto, která na základě své digitální továrny připravuje nové výrobní procesy. Tato digitální továrna je navíc zobrazována pomocí vyspělé 3D stereoskopické projekce, díky které pozorovatel získá velmi reálný pohled na vykonávané operace. Nápady a myšlenky tak přichází naprosto přirozeně, jako by pozorovatel posuzoval reálný provoz. Tento přístup tvoří odlišný pohled na řešenou situaci, než v případě plánování nad schématy a diagramy Agentově orientované modelování (AB) Modelování založené na agentech lze definovat jako decentralizovaný, individuálně zaměřený přístup k vytváření modelu. Při aplikaci této metody tvůrce modelu identifikuje aktivní entity, které se nazývají agenty. Těmito agenty mohou být lidé, společnosti, projekty, výrobní součásti, vozidla, města, zvířata, lodě, produkty apod. Agent má typicky implementováno určité chování, které je dáno stavy, hlavními motivy, reakcemi a pamětí. Tato entita se nachází prostoru (prostředí simulace), navazuje spojení s dalšími agenty a reaguje s okolím. Celkové chování modelu se poté skládá z jednotlivých interakcí všech individuálních entit. Tento přístup nemá definované chování systému, skládá se čistě z chování definovaných jednotlivců, kterých může být v systému od několika desítek až po miliony. Agentově orientované modelování má rozdílný přístup v tvorbě modelu oproti předchozím metodám SD a DE, kdy se začíná na spodní úrovně individuálních entit a ty tvoří vyšší úroveň interakcí, jedná se o tzv. bottom-up modeling. Názorný příklad agentově orientovaného modelu představuje obrázek

64 Obr. 30 Obecná architektura AB modelu (BORSHCHEV et. al. 2004) Na obrázku je znázorněn agentově orientovaný model dynamiky populace v zemi. V tomto modelu je část chování agentů definována pomocí diagramu stavů (statechart), a části prostředí tvoří domy, pracovní místa, dopravní infrastruktura apod. Pomocí agentů lze tedy vyjádřit velmi komplexní systém. Další významnou výhodou je, že tato metoda dovoluje konstrukci modelu, aniž bychom měli znalosti o globálních závislostech v systému (na agregované úrovni). Typicky je také snadnější udržovat agentově orientovaný model než model systémové dynamiky. U AB modelu představuje vylepšení výsledku typicky lokální úprava, než v případě SD modelu, kde jsou změny více na globální úrovni. Každý z uvedených modelovacích jazyků je vhodný pro jiné účely, jsou svým principem zaměřeny na různé úrovně abstrakce. Lze je v případě potřeby i kombinovat, čímž vznikne heterogenní model. To může být v některých případech přínosné, například pokud máme v rámci procesu (DE model) entitu, jejíž komplexnost vyžaduje pro věrnější vyjádření skutečnosti zapojení AB modelu. Vhodnost uvedených jazyků pro požadovanou míru abstrakce ilustruje obrázek

65 Obr. 31 Přístupy (paradigma) v modelování podle úrovně abstrakce (autor podle XJ Technologies) Pomocí vertikální přerušované čáry jsou rozděleny metody podle přístupu k času v procesu. DE a AB model většinou pracuje s diskrétním časem, tzn. skáče z události na událost. Systémová dynamika chápe čas procesu jako spojitou veličinu. Jak je z obrázku patrné, agentově orientovaný model dokáže pokrýt největší rozsah abstrakce. Díky této metodě lze určit individuální pravidla chování entitám na více úrovních abstrakce, například agentům v podobě pracovníků (nízká abstrakce), nebo můžeme považovat za agenty konkurenční podniky (vysoká abstrakce). Z pohledu možného vyjádření komplexity systému je tato metoda nejbohatší a ve většině případů lze systémovou dynamiku i diskrétní události nahradit AB modelem (BORSHCHEV et. al. 2004). Vhodně zvolený jazyk závisí kromě míry abstrakce také na míře zjednodušení, kvantifikace a dostupných analýzách problému. Obecně lze vybírat podle výchozích situací: máme individuální data agentově orientovaný model, jsou zde pouze informace o globálních závislostech model systémové dynamiky, systém lze popsat pomocí procesů model na základě diskrétních událostí, systém je natolik komplexní, že zahrnuje všechny zmíněné aspekty možnost kombinace všech metod. Zvolená metoda se také může odvíjet od dostupných nástrojů, většinou jsou zaměřeny pouze na jednu modelovací metodu. Heterogenní model s využitím více metod podporuje v současnosti pouze jediný nástroj, což je také velmi omezující faktor. 58

66 Typy znalostních modelů Znalostní model řeší konkrétní problematiku a obecně lze tyto modely rozdělit na nejvyšší úrovni do sedmi skupin: 1. Diagnostické modely tento typ modelů je použit pro řešení problému kategorizací a vytvořením rámce, účelem je stanovit zdrojovou či pravděpodobnou příčinu. Příklad: existují tyto symptomy, jaký je problém? 2. Explorativní modely tyto modely mají za úkol produkovat možné varianty pro specifický případ. Příklad: známe problém, jaké jsou možnosti? 3. Selektivní modely tyto modely slouží pro podporu rozhodování a výběr optimálních možností. Proces selekce se musí většinou vypořádat s konfliktními cíli. Příklad: známe tyto možnosti a hledáme, která z nich je pro nás nejlepší. 4. Analytické modely modely jsou většinou použity pro analýzu předem vybraných možností. Tento typ modelů má schopnost posoudit vhodnost, riziko či jiné požadované atributy. Příklad: vybrali jsme tuto možnost a chceme určit, jak je dobrá a odpovídající pro náš cíl. 5. Instruktivní modely tento typ modelů poskytuje návod v obousměrném nebo interaktivním procesu. Příklad: Jak můžeme dosáhnout tohoto cíle? 6. Konstruktivní modely tyto modely jsou schopny konstruovat řešení spíše než dávat návod a instrukce. Příklad: potřebujeme něco za použití těchto specifikací. 7. Hybridní modely v pokročilém modelování jsou modely tvořeni provázáním či řetězením několika modelů dohromady. Lze tak modely implementovat jako nezávislé komponenty. To dovoluje jednodušší údržbu a budoucí rozšíření. Sofistikovaná aplikace s kompletním cyklem může zahrnovat a využívat všechny uvedené modely: diagnostický explorativní selektivní analytický konstruktivní model. (MAKHFI 2011) Validace a verifikace modelu Sestavený znalostní model není validní ve chvíli, kdy dojde k jeho kompletnímu sestavení, ani když projde testem aproximace na historických datech. Aby byl model věrohodný, musí se neustále konfrontovat s reálnými daty a s názory expertů. Prostřednictvím tohoto procesu se budou znalosti modelu i experta měnit a prohlubovat. Je potřeba hledat takové příležitosti, aby bylo možné na základě vlastností modelu replikovat širokou škálu historických zkušeností. Testování modelu by nemělo být navrženo tak, aby se pouze dokázala pravdivost modelu. Tímto přístupem je proces učení omezen a takový přístup narušuje užitečnost modelu a důvěryhodnost toho, kdo model sestavoval. 59

67 Nelze se pouze zaměřovat na replikaci historických dat, bez ohledu na vhodnost základních předpokladů, robustnosti a sensitivity výsledků ve vztahu na předpoklady o hranicích modelu a zpětné vazby struktury. Autoři modelu často selhávají v dokumentování vlastní práce, aby znesnadnili ostatním replikaci a rozšiřování modelu. Chybou je také zaujatý postoj, kdy se data prezentují selektivně, tedy pouze příznivé výsledky vůči předpokladům a to navzdory důkazům. Testování modelu by mělo být navrženo za účelem odhalování chyb a slabých míst, aby bylo možné nalézt limity modelu, vylepšit jej a nakonec použít ten nejlepší model pro podporu v rozhodování Typy dat pro validaci Forrester (1980) identifikoval tři typy dat potřebných pro vývoj struktury a rozhodovacích pravidel v modelu: numerická, psaná a mentální data. Numerická data jsou známa například v podobě časových řad a mnoha dalších možných záznamů v databázích. Psaná data zahrnují záznamy typu operačních procedur, organizačních grafů, reportů, ů a dalších typů archivních dat. Mentální data zahrnují všechny informace obsažené v mentálním modelu člověka, včetně dojmů, příběhů, pochopení systému a jak je tvořeno rozhodnutí. Tato mentální data nejsou přístupná přímo a musí projít fází vynášení znalosti na povrch (knowledge elicitation), jak bylo popsáno v předchozích kapitolách. Numerická data obsahují pouze malý zlomek informací, která obsahují psaná data, což je nepatrné v porovnání s informacemi obsaženými v mentálním modelu experta. Pokud bychom používali pouze surová data, bez odborných znalostí účastníků, byl by výsledkem chaos. Pro tato numerická data a kvantitativní metriky je používán termín hard data, nebo hard variables. Soft variables naproti tomu představují faktory, jako jsou cíle, vnímání a očekávání. Termín hard je zaveden pro znázornění, že numerická data jsou více přesná a reálná než kvalitativní data, která mohou být pro někoho nehmotná a nespolehlivá. Když jsou dostupná numerická data, je důležité použít při testování správné metody pro odhad parametrů a posoudit schopnost modelu replikovat historická data. Jedná se o hard validaci. Mnoho zdánlivě měkkých proměnných (soft variables), například zákaznické vnímání kvality, morálka zaměstnanců, optimizmus investora a politické hodnoty, je běžně kvantifikováno různými analytickými nástroji. Tato kvantifikace měkkých proměnných často dává důležitý pohled na dynamiku systému. Obecně by se člověk měl vyvarovat extrémního přístupu, tedy aby k validaci byla používána pouze hard data, nebo naopak aby se kladl důraz pouze na kvalitativní pohled, na úkor numerické přesnosti. Na základě numerického testování je potřeba provést analýzu citlivosti pro určení významných parametrů a vztahů. Parametry, které nejsou významné, nemusí být odhadovány s vysokou přesností. Lze se tak v rámci omezeného rozpočtu zaměřit na hlavní faktory, které budou modelovány a odhadovány přesněji. (STERMAN 2000, s. 854) 60

68 4 Aplikační část implementace znalostního modulu do BI Tato část práce se bude zabývat reálnou možností implementace znalostního modulu na základě požadavků výrobní firmy (klient). Modelové řešení projektu vychází z požadavků imaginární výrobní firmy, která řeší typické problémy související s ekonomickou krizí a rostoucím tlakem ze strany odběratelů a konkurence. Úkolem řešitele (dodavatele) projektu je navrhnout a implementovat klientovi takové řešení znalostního managementu, které pro něj bude efektivní a účelné. Nedílnou součástí je samozřejmě i budoucí podpora ze strany dodavatele. Cílem projektu je vytvořit pro výrobní firmu takový nástroj, který bude pro klienta přínosný v rámci operativního a taktického plánování. Samotná implementace platformy pro znalostní management je pro klienta přínosná hlavně v dlouhodobém horizontu a je v souladu se strategií zvyšování efektivnosti všech procesů v organizaci. Na základě tohoto projektu by měli zúčastněné strany navázat delší obchodní spolupráci. Předpokladem je, že klient nemá implementovány žádné nástroje znalostního managementu a v minulosti ani nedošlo k pokusům o implementaci. Zkušenosti s těmito nástroji proto budou pro klienta nové, proto je klíčové poskytnout ze strany dodavatele dostatečnou podporu odpovědným pracovníkům, kteří s nástroji budou pracovat. 4.1 Výrobní společnost ABC stroj, s. r. o. (klient) Výrobní společnost ABS stroj, s. r. o., je zavedená firma působící na českém trhu přes 20 let. Její hlavní aktivitou je zakázková výroba strojních součástí, tato činnost tvoří převážnost část obchodních aktivit. Dále díky vlastnictví skladových prostor v žádané lokalitě (Praha) poskytuje logistické a skladovací služby. Veškeré výrobní prostory se nachází na území ČR, nedaleko Prahy. Menší sklad, který využívá firma výhradně pro své výrobky a materiál, se nachází ve stejném místě jako sídlo firmy a výroba. Velký sklad, který firma nabízí i externím zájemcům, je vzdálen cca 30 km od sídla firmy. Výrobní sortiment představují strojní součásti, nástrojařská výroba a finální stroje. Mezi klíčové odběratele patří firmy působící v automobilovém průmyslu (VW, DAF, Volvo). Společnost je středně velký podnik, průměrný počet zaměstnanců se pohybuje kolem 100 a roční obrat v loňském roce 2012 představoval zhruba 15 mil. EUR. Společnost disponuje certifikátem jakosti 9001:2008 a z pohledu zahraničních odběratelů má velmi dobré jméno, které si chce do budoucna udržet díky implementaci nových technologií a efektivních metodik řízení provozu. V minulosti měla firma ABC stroj, s. r. o., ustálený výrobní program a díky slušné poptávce se zaměřovala hlavně na projekty dlouhodobějšího charakteru. V době před ekonomickou krizí se firma nacházela v relativně statickém prostředí strojního odvětví a zaměřovala se hlavně na sériovou výrobu. Kusová a malosériová výroba byla do té doby odmítána z důvodu delšího zaváděcího cyklu a vyšších nákladů pro firmu, kdy nedokázala 61

69 tyto krátkodobé projekty řešit dostatečně efektivně. Okolo roku 2009 zaznamenala firma pokles rozsáhlejších projektů a spolupráce s některými zahraničními odběrateli začala upadat. Strojírenský průmysl zasáhla ekonomická krize, která donutila firmu reagovat na podmínky trhu. V souvislosti s rostoucí dynamikou prostředí se firma proto rozhodla zaměřit na zefektivnění plánování a svou strukturu se rozhodla transformovat směrem k procesnímu řízení. Od tohoto kroku si společnost ABC stroj, s. r. o., slibuje snížení nákladů a zrychlení celého procesu zavedení konkrétního procesu zakázkové výroby. Na základě tohoto zefektivnění může přijímat zakázky menšího rozsahu, které pro ni v minulosti nebyly dostatečně lukrativní. Technologicky je firma velmi dobře vybavená, disponuje stroji od klasických frézek a soustruhů až po moderní multifunkční CNC obráběcí centra. Problémem společnosti je neefektivní a nepružné řízení, špatně přidělená odpovědnost za jednotlivé procesy a v poslední době i vyšší fluktuace kvalifikovaných zaměstnanců. V dobách před ekonomickou krizí se firmě dařilo dodržovat obchodní plány, manažeři neměli problém s obhájením svých rozhodnutí a vlastníci firmy byli spojení. V současné době se začaly projevovat negativní stránky původního statického přístupu k řízení a docházelo k obtížné identifikaci ovlivňujících faktorů, které měly za následek nedodržení stanoveného plánu pro daný rok. Firma vlastní ERP systém, ze kterého čerpá veškerá dostupná data z výroby a provozu společnosti. Data z provozního ERP systému a dalších operativních systémů jsou pumpována do datového skladu, kde na základě agregací a výpočtů dochází k tvorbě reportů a sledování běžných obchodních veličin a ukazatelů. Data a informace získaná z těchto systémů slouží jako podklad pro rozhodování kompetentních manažerů Potřeba řešení situace ve společnosti ABC stroj, s. r. o. Vedoucí pracovníci společnosti si uvědomují problémovou situaci a pro řešení situace zavedením pokročilých nástrojů pro podporu rozhodování mají plnou podporu od vlastníků firmy. Manažeři chtějí optimalizovat v první fázi výrobní oblast a v dalším kroku by mělo dojít i k optimalizaci logistických služeb a skladování. Na základě zformulovaných požadavků se rozhodli oslovit dodavatelskou společnost, která má dlouhodobé zkušenosti s implementací analytických nástrojů pro podporu rozhodování. Za stranu klienta bude vystupovat zkušený manažer firmy ABC stroj, s. r. o., který povede veškerá jednání a bude zodpovědný za zdárný výsledek celého projektu zefektivnění plánování. V jeho kompetenci je i předělení potřebných expertů firmy, se kterými bude dodavatelská firma spolupracovat při vývoji nástroje. 4.2 Softwarová společnost Data XYZ, s. r. o. (dodavatel) Klientské požadavky bude řešit vývojová společnost, která má bohaté zkušenosti s nasazováním analytických platforem v ČR i zahraničí. Jedná se o menší firmu o velikosti zhruba 20 zaměstnanců. Kromě několika administrativních pracovníků se firma skládá ze zkušených analytiků, programátorů, testerů a dvou projektových manažerů. 62

70 Na základě požadavků společnosti ABC stroj, s. r. o., bude určen vedoucí analytik, který bude odpovědný za řešení projektu. Tento analytik bude mít k dispozici několik programátorů, kteří budou mít na starost implementační fázi nástroje. Dodavatelská firma poskytuje řešení Business Intelligence s využitím prediktivní analytiky a poskytuje poradenství s využitím simulačních nástrojů. Své produkty dodává formou projektu na klíč, tedy kompletní zajištění od hardwarové infrastruktury, přes implementaci požadovaných nástrojů, až po zaškolení jednotlivých pracovníků a následný servis celého řešení. Klienti oceňují profesionální přístup a dlouhodobou spolupráci, kdy dodavatel dokáže flexibilně upravovat dodané řešení a prodlouží tak jeho životní cyklus. Řešení projektu bude ilustrováno z pozice dodavatelské firmy, tedy na základě výše zmíněných problémů a požadavků. Prioritou je naklonit si klienta k implementaci nástrojů znalostního managementu a řešení na základě simulací. Na tomto konceptu závisí veškerá další spolupráce mezi klientem a dodavatelem. V tomto kroku musí být jasně představeny výhody, které toto řešení nese a finální implementace nástroje musí tyto výhody skutečně obsahovat, aby projekt byl vyhodnocen jako úspěšný a mohla pokračovat užší spolupráce mezi oběma stranami. 4.3 Představení nástrojů znalostního managementu zákazníkovi Odpovědný pracovník za stranu klienta má z předešlých porad vedení společnosti definované problémové oblasti, které chce zefektivnit. Jedná se o plánování výroby v nové hale a v dalším kroku zefektivnění logistiky v externím skladu v Praze. Se svými požadavky oslovil zákazník dodavatelskou firmu. Dodavatelská firma provedla na základě poptávky předběžnou analýzu výhodnosti projektu a rozhodla se zákazníkovi nabídnout své služby a řešení. Na tento projekt byl přidělen zkušený analytik, který má speciálně v oblasti výroby bohaté zkušenosti. Na základě analytického interview, kdy byly přesně formulovány požadavky, výchozí situace a očekávané výstupy, se rozhodl dodavatel vytvořit prototyp nástroje, kterým chce zákazníka přesvědčit o vhodnosti znalostního modulu pro konkrétní řešenou oblast. V první fázi se proto obě strany dohodli, že nástroje se budou zavádět postupně a v pilotní fázi bude využito plánování pro nově zařízenou výrobní halu, která je vybavena univerzálními obráběcími CNC stroji. Na této modelové situaci chce zákazník ověřit efektivitu nabízeného řešení. Zákazník požaduje zkrácení fáze zavádění nového procesu (zakázky) pro své odběratele a dále monitorování celého procesu takovým způsobem, aby v případě odchodu kvalifikovaného pracovníka nebyl tento proces narušen či ohrožen. Mělo by se předejít možným dodatečným nákladům na konkrétní strojní zakázce, což by dovolilo firmě ABC stroj, s. r. o., operovat s menšími zakázkami a s menší rizikovou přirážkou. Účel tohoto řešení spočívá ve zvýšení konkurenceschopnosti, důvěryhodnosti vůči odběratelům a lepšímu plánování finančních prostředků. Nástroj tedy poslouží jak manažerům na taktické úrovni, tak odpovědnému pracovníkovi na operativní úrovni řízení. 63

71 Na základě analýzy ze strany dodavatele je jako vhodný postup zefektivnění navržen postup, kterým by se měl projekt ubírat. V první fázi je nutné v prostředí klienta zavést efektivní správu procesů, sjednotit veškeré návrhy a plány procesů a zpřístupnit je správným uživatelům. Dalším krokem je maximální využití nadefinovaných procesů. To nabízí dvě hlavní cesty, jak s procesními modely pracovat: nasazení procesu na server a vytvořit tak automatizované workflow, do nadefinovaného procesu zakomponovat dynamickou složku a využít tak simulací při plánovaní a monitoringu (model diskrétních událostí). Zákazník si uvědomuje důležitost managementu procesů, zejména v kontextu zeštíhlování výroby a možností monitoringu. Díky nasazení procesních modelů dostává možnost, jak proces dále ladit a jak se poučit z reálných situací, které může do modelu procesu zpětně implementovat. Nasazení procesního managementu tedy považuje jako vhodný krok. Dalším úkolem je přesvědčit klienta pro vhodnost zavedení simulací do těchto procesů. Do současné doby firma plánovala a následně testovala navržený proces výroby reálným provozem. Následně se případné nedostatky odstraňovaly za provozu daného procesu. To se promítlo jako dodatečné náklady, které při plánování nebyly zcela zřejmé. Tyto náklady může tvořit jak nutnost dodatečných pracovních sil, tak případné nedostatky v kapacitě strojů a dalšího příslušenství, které je do výroby zapojeno. Tuto nejistotu při plánování by mělo odstranit zavedení vhodných simulací. Pro zákazníka bude vytvořen vzorový prototyp simulačního modelu, na kterém mu budou demonstrovány výhody daného řešení. Simulační model je tvořen formálním modelem řešeného problému, takže práce s ním dovoluje využití jak v plánovací fázi tak při monitoringu procesu. 4.4 Interaktivní prototyp modelu diskrétních událostí K řešení konkrétního problému v prostředí výrobní firmy se nejvíce hodí využití jazyka diskrétních událostí (Discrete Event). Díky své podstatě, která byla rozepsána v teoretické části, nabízí ideální řešení pro rychlý vývoj prototypu znalostního modelu a následné prezentaci zákazníkovi. Pro vývoj znalostního modelu je zajištěna součinnost klienta ve formě poskytnutí potřebných dat a expertů, jejichž znalosti se implementují do vyvíjeného modelu. V tomto scénáři, kdy zákazník nemá implementovaný procesní management, se vychází zejména z elicitace znalostí zkušených pracovníků, tvoří se myšlenkové mapy procesů a díky nim se následně pomocí vhodného nástroje sestaví znalostní model, který představuje formální vyjádření řešené situace. Vytvořený formální model bude v dalších kapitolách využit jako analytický modul, který bude napojen na reálná data. Výsledek této činnosti by měl být argumentem pro klienta, proč o nástrojích znalostního managementu uvažovat. Na základě sestaveného modelu, který by měl v rámci možností (jedná se o prototyp) kopírovat realitu, se bude zákazník rozhodovat, zda implementovat či ne. V této fázi bude nejdůležitější roli hrát vizuální stránka a nabízená funkčnost. Co nejvyšší 64

72 validita modelu je řešena až v následujících fázích projektu. Nutné předpoklady pro tvorbu prototypu tvoří: dostupnost dat, které se dotýkají řešené problematiky (ERP, Data Warehouse ), dostupnost expertů ze strany klienta, kteří jsou dokonale obeznámeni s řešenou problematikou. Kromě předpokladů na straně klienta existují ještě předpoklady na straně dodavatele, a to zejména schopnost pochopení problému do hloubky (analytik), případně facilitátor, který analytické interview moderuje a pomáhá k efektivnějšímu toku myšlenek zúčastněných odborníků Nástroj pro tvorbu prototypu modelu Dodavatelská společnost využívá k tvorbě znalostních modelů komerční program AnyLogic. Na základě zkušeností a požadavků klientů se jedná o nejvhodnější nástroj a to z několika důvodů: umožnuje tvorbu modelů systémové dynamiky, diskrétních událostí i agentově orientovaných modelů, v současnosti jako jediný dokáže tyto tři metodologie tvorby modelů kombinovat, výstupy programu (modely) lze integrovat do již hotových analytických nástrojů, výstupy jsou graficky propracované a lze tvořit i 3D prostředí (virtuální továrny). Program AnyLogic nabízí kromě rychlého grafického vývoje množství statistických rozdělení, díky kterým tvoří ideální platformu pro simulace. Obchodní simulace, které lze v tomto nástroji tvořit, pokrývají pro nás zajímavé oblasti jako: trh a konkurence, zdravotnictví, výroba, dodavatelský řetězec, logistika, maloobchod, business proces, dynamika sociálních systémů a ekosystémů, IT infrastruktura, dynamika chodců a dopravní simulace. Poslední verze programu číslo 6 je založena na velmi rozšířeném vývojovém prostředí Eclipse. Díky tomu je tento nástroj platformě nezávislý, lze jej provozovat na operačním systému MS Windows, Mac OS a Linux. Součástí programu AnyLogic jsou různé grafické knihovny pro urychlení práce na konkrétní oblasti zájmu, pro nás nejzajímavější je knihovna podnikových procesů (Enterprise Library). 65

73 4.4.2 Vývoj prototypu modelu Protože v této případové studii není implementován standardizovaný procesní management například na platformě ARIS, bude se prototyp modelu tvořit na základě existujícího procesu a myšlenkových modelů expertů ze strany klienta. Z pohledu životního cyklu znalostního modelu se tedy nacházíme ve fázi konceptuálního modelu, viz obrázek 32. Obr. 32 Výchozí situace při tvorbě prototypu (autor podle MITROFF) Z obrázku je patrný postup z fáze konceptuálního modelu k vědeckému modelu, který představuje formální model řešeného problému. Konceptuální fáze přechodu mezi reálným problémem a konceptuálním modelem je minimalizována z důvodu existence jakýchkoliv plánů, schémat a analýz k již existujícímu procesu. Možnosti využití existujících dokumentací a analýz budou uvedeny v další kapitole. Na základě spolupráce s klientem a dodavatelem vzniká dokument, popisující konceptuální model řešené situace ve výrobní hale. Tato dokumentace je ve formě EPC schématu (standard ARIS/SAP). Existující proces výroby v hale je převeden do diagramu, který představuje tok materiálu/výrobků uvnitř různých činností. Tento diagram je v ilustrativní zkrácené formě znázorněn na obrázku

74 Obr. 33 Zjednodušený EPC diagram činností ve výrobní hale (autor) Na schématu je znázorněn v obecné formě tok materiálu a následných výrobků v řešeném procesu. Tento proces představuje ohraničení řešené problematiky. Skládá se z procesu transportu surového materiálu od dodavatele do výrobní haly, poté ho odpovědný skladník naskladní a materiál je připraven ke zpracování na CNC strojích. Diagram se skládá ze stavů (šestihran) a akcí (obdélník s kulatými rohy). Každou akci vykonává určitý zdroj, v tomto případě je znázorněn externí pracovník při nakládání materiálu. Nákladní automobil řídí externí řidič a naskladnění surového materiál provádí 67

75 interní skladník. Po složení materiálu externí řidič odjíždí z areálu. Pomocí přidělení zdrojů si lze snadno převést konkrétní zdroje na finanční ohodnocení a toky. Naskladněný materiál skladník postupně vozí na operativní místo poblíž obráběcích center, kde jednotliví pracovníci přeměňují materiál ve finální díly. Zpracování materiálu může začít až ve chvíli, kdy je stroj připraven. Z tohoto centrálního místa tedy materiál prochází logickou podmínkou OR, kdy postupuje do jednoho ze tří strojů. Tyto stroje vykonávají stejnou operaci, jsou tři pouze z důvodu výrobní kapacity. Na schématu již není zobrazen proces dopravy hotových součástek do dalšího zpracování, ale jednalo by se o podobný proces, jako představuje dovoz surového materiálu. K tomuto logickému sledu jednotlivých aktivit je potřeba prostudovat existující data jednotlivých činností obsažená například v ERP. Předpokladem pro správné nasazení DE modelu je znalost dob trvání jednotlivých činností. Toto trvání může být sledováno různými způsoby. V případě skladníka je měření obtížnější, ale dá se vycházet z rychlosti vysokozdvižného vozíku, komplikovanosti skladových prostor apod. V této situaci by bylo nejvhodnější jeho práci měřit dalším pracovníkem, aby se mohlo s touto dynamickou veličinou dále pracovat. Čas zpracování výrobků je v tomto případě měřitelný relativně snadno. Čas operací CNC stroje je naprogramován a obsluha stroje vykonává časově krátkou podpůrnou činnost (usazení materiálu do CNC, vyjmutí hotového výrobku, položení na paletu). V případě, že máme nadefinovány veškeré operace a určené zdroje (materiálové či pracovní), můžeme přistoupit k vytvoření simulačního modelu pomocí programu AnyLogic. Do tohoto konceptuálního modelu zavedeme dynamickou složku tak, že jej převedeme na model diskrétních událostí. Proto jsou velmi důležitá reálná data, ze kterých čerpáme informace o dobách trvání, rozdělení, spotřebě v čase atd. Pomocí dostupných komponent z Enterprise library sestavíme na základě získané dokumentace a analýz dat prototyp modelu, který bude pro klienta graficky atraktivní. Při vývoji modelu je využit v programu plně objektový přístup. Díky tomu lze mnoho již hotových částí procesů znovu využít. Sestavení modelu je díky grafickému vývoji velmi rychlé a přehledné. Grafická reprezentace bude odrážet reálné dispozice výrobní haly, což dává simulaci větší věrohodnost (vizuální). V této fázi prototypu není prioritou vysoká přesnost modelu, ale hlavně logická a faktická přesnost komplexních situací. Tento ilustrativní příklad není příliš komplexní, ale pro pochopení a demonstraci klientovi je velmi vhodný právě svou jednoduchostí. Díky této jednoduché demonstraci klient dokáže snadno rozpoznat, že model odpovídá reálné situaci. Model diskrétních událostí v programu AnyLogic bude mít následující podobu, viz obrázek

76 Obr. 34 DE model řešeného procesu ve výrobní hale (autor podle XJ Technologies) Výsledný model diskrétních událostí zachycuje sled jednotlivých událostí včetně jejich časových charakteristik. Diagram obsahuje prvky událostí (iniciační a finální), jednotlivé aktivity (operace s materiálem/výrobkem), dopravníky a časové prodlevy. Zajímavostí je vyjádření tří CNC strojů, které představují souhrnnou značku pro podproces. Ve fázi prototypu by CNC stroj mohl být vyjádřen jako obyčejná aktivita, která trvá určitý čas. Tento diagram je připraven na detailnější definování procesu každého CNC stroje. Časové charakteristiky v podprocesu tvoří výslednou časovou charakteristiku CNC stroje. Celý model spojuje tři oblasti: dodávka materiálu, výroba, další transport. Pomocí simulace v tomto procesu lze sledovat chování zdrojů, kde dochází k hromadění a tvoření front, případně kde je přebytek pracovníků a zda stroje běží na požadovanou kapacitu. Takto nadefinovaný proces tvoří výpočetní jádro celé simulace. Pro prezentaci je však vhodné jej převést do graficky srozumitelnější podoby, nejlépe do animovaného trojrozměrného modelu. Vytvoření 3D modelu je velmi vhodné pro uvědomění si fyzikálních vlastností zkoumaného procesu. V případě montážní linky nebo výrobní haly je tak možné předejít mnoha situacím, na které by se mohlo narazit až reálným provozem. Právě to je jeden ze silných argumentů pro zákazníka. Jedno z možných zpracování modelu do 3D podoby ilustruje obrázek

77 Obr. 35 3D simulace Discrete-Event modelu výrobní haly (AnyLogic ) Na obrázku je zobrazena v symbolickém provedení továrna, ve které se simulovaný proces odehrává. Klient má díky této prezentaci dobrou představu o tom, jak materiál postupuje jednotlivými kroky a kde může docházet k hromadění výrobků Ovládání simulačního modelu Sestavená simulace, která představuje formální model řešeného procesu, reaguje na základě vnitřních parametrů modelu (procesu). Výpočetní jádro simulace obsahuje zakomponovaná pravidla a jednotlivé vazby ovlivňujících faktorů. Samotné parametry, které mají na simulaci vliv, vycházejí z běžných reálných hodnot. Právě tyto hodnoty (parametry) lze měnit a zjišťovat tak chování celého procesu. To nám umožní identifikovat faktory, které mají malý či zásadní vliv na chod celého procesu. Tím, že model obsahuje nadefinované znalosti v podobě vnitřních pravidel, lze jej využít pro analýzu a řízení na základě modelu, což představuje nejefektivnější způsob managementu. Jednotlivé parametry, které lze v rámci této simulace definovat a měnit: interval dodávek materiálu, interval odvozu hotových součástek, kapacita palety, kapacita kamionu, počet vysokozdvižných vozíků, rychlost kamionu, VZ vozíku, rychlost pracovníka, zpoždění při naskladňování/vyskladňování materiálu, 70

78 čas zpracování materiálu (nejkratší, průměrný, nejdelší) apod. Tyto vnitřní parametry jsou v simulaci ovládány přes prezentační vrstvu modelu. Proto lze některé parametry nastavit konstantní a některé zpřístupnit uživateli ve formě ovládacího prvku v dashboardu simulace. Podrobnější rozbor možností uživatelského prostředí simulací bude probrán v samostatné kapitole. 4.5 Úprava a zdokonalení modelu pro reálné nasazení V případě, že je předchozí fáze prototypu modelu úspěšná a klient je přesvědčen o užitečnosti celého řešení, je potřeba znalostní model zpracovat do co nejlepší možné míry. To představuje využití všech dostupných informací a znalostí zainteresovaných lidí. Toto platí pro model, který vzniká na základě existující situace a jehož účelem je tuto situaci zlepšit či jiným způsobem řešit a optimalizovat. V této fázi ladění modelu je tedy vhodné využít veškerých dostupných analýz, které již k danému problému existují. Lze mezi ně zařadit existující: náčrty, hrubé plány procesů, existující analýzy prvků v modelu (stroje, aktivity, pracovní zdroje), audity klíčových parametrů, všechny analytické výstupy ve formě diagramů jakékoliv další existující analýzy. Díky existenci výše uvedených zdrojů informací se lze rychleji dostat do fáze konceptuálního modelu a pomocí DE modelování převést na kvalitní formální model, který lze dále využívat k simulaci či monitoringu a analytice. Pokud máme k dispozici analytické výstupy ve formě diagramu (EPC, UML, ARIS, BPMN), lze z těchto dokumentů vytěžit cenné informace a znalosti. Právě tyto znalosti jsou implementovány do znalostního modelu. V praxi bychom nejspíš nenašli situaci, kdy by existovala pouze data, ke kterým by neexistovaly informace, a nenašel se člověk, který má o datech určité domény patřičné znalosti. Z pohledu dodavatele i klienta je existence těchto podpůrných dokumentů v jakékoliv formě velmi vítaná, protože v důsledku dochází ke zkrácení potřebného času na vývoj znalostního modelu (případně zbyde více času na potřebnou validaci a verifikaci). Proto je z pohledu dodavatelské firmy vhodné navrhnout nástroj pro procesní management v případě, že jej klient nemá. Pokud by klient disponoval pouze daty a neměl kompetentního člověka s potřebnými znalostmi problematiky, představovalo by to problém hlavně pro dodavatele řešení. Tento případ by naznačoval nedostatečné přidělení odpovědností za proces, což je v praxi reálný jev. V takové situaci by bylo prakticky na dodavateli řešení, jak potřebné znalosti získá či odvodí. Samozřejmě k tomu lze využít již popsaných metod statistiky a zejména Data Mining, díky kterému lze odvodit vztahy a pravidla v poskytnutých datech. Nicméně v tomto případě se dodavatel vystavuje riziku, že dodávané řešení neponese patřičný efekt a bude nákladnější, 71

79 což může být ve výsledku vyhodnoceno jako neúspěšný projekt a nemusí být ani dokončen. Právě tato situace naznačuje důležitost vhodných expertů či expertních analýz. Data zde přesto hrají velmi důležitou roli a to ve fázi validace a verifikace znalostního modelu. Ve chvíli, kdy dodavatelská firma využila veškerých dostupných informací a znalostí při tvorbě znalostního modelu, je nutné ověřit jeho správnost a přesnost. 4.6 Validace a verifikace znalostního modelu U sestaveného modelu je nezbytně nutné ověřit jeho logickou správnost a přesnost podle specifikovaných požadavků. K tomuto účelu slouží validace a verifikace modelu. Za validní znalostní model považujeme takový model, který odpovídá představám uživatele a je v souladu s jeho očekáváním a jeho specifikací. Verifikací vytvořeného modelu ověříme jeho pravdivost na základě konfrontace s reálnými situacemi. Tento postup by se měl zaměřit na faktickou správnost sestaveného modelu a ověřit platnost očekávaných axiomů. Toho lze docílit, jak bylo již zmíněno, vystavení modelu extrémním situacím. Například testujeme, jak se model chová v případě selhání určitého kritického prvku v procesu, což by mělo mít logický důsledek v nulovém výstupu a nahromadění v zásobníku (frontě) před tímto porouchaným prvkem. Tato verifikace by měla probíhat na základě expertních úsudků a předpokladů, proto je vhodné využít týmu odborníků s jejich názory. Znalostní model sestavený pomocí jazyka diskrétních událostí lze dobře ověřit na základě reálných dat. Pokud máme v tomto případě záznamy z provozu, které zachycují ovlivňující proměnné vstupující do modelu, lze výsledek modelu a očekávaný výsledek (reality) snadno vzájemně porovnat. Pokud jsou reálné vztahy v procesu správně implementovány do znalostního modelu, měly by si výstupy odpovídat. Ve fázi verifikace se znalostní model může konfrontovat s dalšími analýzami. Výstup znalostního modelu by tedy měl odpovídat výstupu modelu sestaveného pomocí statistických metod či Data Mining modelu. Statistické analýzy a DM model jsou provedeny na reálných datech, které zákazník poskytne dodavateli k provedení auditu. Dostupnost, kvalita a dostatečné množství těchto analyzovaných dat je důležité pro co nejlepší verifikaci modelu Verifikace znalostního modelu pomocí Data Mining modelu V celém procesu tvorby znalostního modelu je velmi vhodné využit Data Mining. Pokud je dodavatelská firma vystavena situaci, kdy musí co nejvíce znalostí získat na základě předložených dat z řešené úlohy či jiného komplexního problému, lze na základě metod Data Miningu extrahovat vzory a vztahy mezi těmito daty. Pro řešení tohoto konkrétního projektu výrobního procesu firmy ABC stroj, s. r. o., který představuje úlohu vstupujících proměnných (klíčových faktorů procesu) a výstupu hotových dílů, lze ideálně využít již zmiňovanou regresi. Pro relativně snadnou úlohu, jako je tento modelový proces výrobní firmy, je vhodné použít lineární a nelineární regresní metody. 72

80 Pokud se nám podaří k řešené úloze najít DM model, který bude dostatečně přesný a robustní, lze jej použít jako alternativní prostředek pro porovnávání přesnosti námi sestaveného znalostního modelu. Nejkvalitnější DM model můžeme vybrat například podle hodnotícího kritéria ROC křivky, která byla vysvětlena v teoretické části Data Miningu. Tento DM model nám tedy může dobře posloužit pro porovnání výstupů vůči znalostnímu modelu. Pokud je DM model typu regresního stromu, lze navíc ověřit indukovaná pravidla. Indukovaná pravidla, která se model naučil z pozorovaných dat, lze porovnat s námi definovanými pravidly (např. názory expertů), která jsou použita ve znalostním modelu. Tím dochází k ověření, zda pravidla námi předpokládaná jsou obsažena i v reálných datech. Tento fakt dobře ilustruje podobnost DM modelu a znalostního modelu, kdy by měly oba modely na stejných datech předpokládat stejný výsledek (nebo alespoň velmi podobný). V případě, že DM model vznikne pomocí metody neuronové sítě, je interpretace tohoto modelu velmi omezená jedná se o typ modelu black box, do kterého standardní cestou nevidíme. Nelze jej snadno převést na pravidla if-then, která lze vyčíst z modelu rozhodovacího stromu. Nicméně i model sestavený pomocí neuronové sítě lze dobře využít pro porovnání sestavovaného znalostního modelu. Model neuronové sítě má typickou vlastnost výborné interpolace a v některých situacích proto může tento typ modelu dávat nejlepší skóre ohledně přesnosti modelu. Přesný a validní Data Mining model můžeme tedy využít jako alternativní analýzu a porovnávat snadno výstupy DM a znalostního modelu. Validitu samotného DM modelu lze snadno ověřit na základě dostupných dat, proto můžeme při porovnání s validním DM modelem rychle rozhodnout, zda je znalostní model kvalitní či ne. Tyto Data Mining modely se navíc mohou ve firmě již vyskytovat, stejně jako jiné typy analytiky. Pokud tedy klient již využívá procesní management a k řešené situaci existuje DM model, je pro dodavatele relativně snadné vytvořit znalostní model a ověřit jej. Této koexistence DM modelu a znalostního (KM) modelu lze využít i v případě, kdy se DM model sám dodatečně validuje. U zákazníka, kde se DM model používá ke skórování dat v databázi, se může průběžně ověřovat přesnost hodnotícího DM modelu automaticky. Pokud tedy v námi řešeném procesu dochází k postupným změnám, kterou může představovat klesající výkonnost určitého stroje, dochází ke snižování přesnosti znalostního i DM modelu. Tím, že DM model prochází automatickou validací lze tedy přimět DM model k novému naučení a zároveň poslat požadavek na změnu znalostního modelu, kterou má v našem případě na starost dodavatelská softwarová firma Data XYZ, s. r. o. Další možná situace pro dodavatelskou společnost může nastat, pokud klient řeší určitou problémovou oblast, ke které má veškerá související data a považuje je za velmi cenná. Samozřejmostí je v tomto případě naprostá mlčenlivost vůči konkurenci klienta, přesto může mít zákazník takový požadavek, že s daty se může pracovat pouze pod jeho dozorem v místě firmy klienta. 73

81 Nás jako dodavatelskou firmu vcelku nezajímají konkrétní data, ale právě vztahy dat a dále získané znalosti. V této situaci by nám mohl Data Mining pomoci k vytvoření DM modelu, který budeme používat jako referenční model při testování námi sestaveného znalostního modelu. Samozřejmostí je, že výsledný DM model, podle kterého budeme KM model porovnávat, bude přesný a validní dle specifikací. Možností pro další využití Data Miningu existuje mnoho, zejména v dalších oblastech, které by se u této výrobní společnosti daly v budoucnu řešit. V tomto navrhovaném řešení bude DM model využit jako podpora implementovaného znalostního modelu do existujícího Business Intelligence řešení klienta Dostupné nástroje pro Data mining Pro zkoumání dat pomocí metod Data Miningu lze využít mnoha dostupných nástrojů. Nástroje pro DM se liší svým zaměřením. V případě projektů dolování dat na nepříliš velkých datových souborech lze využít volně dostupné programy (Open Source). Po podrobném zkoumání dostupných nástrojů lze jednoznačně doporučit zejména program WEKA, který je velice přehledný a pro začínající DM analytiky je nejvhodnější. Obsahuje všechny důležité nástroje pro přípravu dat, klasifikaci, regresi, shlukování, asociační pravidla a vizualizaci dat. Obrovskou výhodou pro vývojovou firmu je fakt, že WEKA obsahuje přístupné API, díky kterému lze využít všech nástrojů programu přímo v kódu vyvíjeného nástroje pro klienta. V tomto řešeném projektu by se tedy knihovna programu WEKA dala velmi snadno využít k automatizovaným analytikám. K programu dále existuje velké množství dokumentace a díky své otevřenosti jej lze nalézt v mnoha dalších projektech, jako například volně dostupná řešení Business Intelligence (Pentaho), kde slouží jako analytický nástroj. Nevýhodou tohoto nástroje může být rychlost. Díky tomu, že program je napsán v jazyku Java, lze jej provozovat na jakékoliv platformě, ale jedná se o interpretovaný jazyk a je proto nutný program, který Java kód provádí (interpretuje). Tento fakt se neprojeví na malých projektech, ale v případě větších datových souborů (více jak 1 mil. záznamů) se rychlost projeví, stejně tak náročnosti paměti a další související problémy. Toto omezení je v dnešní době velmi relevantní díky obrovskému množství dat, které firma produkuje. V rámci volně dostupných nástrojů se v poslední době velmi prosazuje nástroj Rapid Miner. Tento program je také napsán jazykem Java, ale obsahuje další rozšíření, díky kterým umí pracovat s velkými daty. Bonusem je plná integrace všech nástrojů z programu WEKA. Lze jej použít jako samostatný analytický nástroj či jako výpočetní engine pro vlastní aplikace, stejně jako v případě předchozího programu. Podle serveru KDnuggets je Rapid Miner od roku 2010 jedničkou v Data Mining a analytických projektech. Na základě vlastních zkušeností se jedná o velmi přehledný program, kde se projekt tvoří formou grafického workflow. Tento koncept tvorby DM projektu je tedy stejný, jaký používají ostatní komerční programy. Lze využít mnoha doplňků, které usnadní konkrétní úlohu. Program existuje ve volně šiřitelné verzi, která ale neobsahuje doplňky napojení na komerční datová úložiště a hlavně je bez rozšíření Hadoop (Big Data). 74

82 Nejvíce flexibilním, ale zároveň nejdražším řešením, je program od společnosti SAS Institute Inc. Statistický program této americké společnosti, která vznikla v roce 1976, je mezi statistiky velmi známý. Představuje z pohledu funkčnosti a výkonu naprostou špičku. Kromě vývoje statistického a analytického softwaru se tato společnost soustředí na tvorbu Business Intelligence platformy, kde nabízí další uplatnění svých pokročilých analytických nástrojů. Nástroj této firmy pro Data Mining je SAS Enterprise Miner. Tento nástroje se skládá z grafického prostředí (Java klient), který běží na uživatelově pracovní stanici a všechna výpočetní síla je na straně serveru. Tím je dobře vyřešen požadavek výkonnosti v rámci opravdu velkých projektů. Výpočetní server, který se může skládat z velkého počtu procesorů a s řádově desítkami GB paměti může provádět in-memory či in-database analytiku. Analýza dat může probíhat nad existující databází jakéhokoliv výrobce nebo nad databázovým serverem od SAS (Teradata). Tento program je spíše pro ilustraci skutečného enterprise řešení, svými náklady na pořízení přesahuje možnosti malých firem. Řádově se cena za licenci pro stanici pohybuje mezi USD za první rok, dále roční platba klesá (cca % pořizovací ceny). I když nejsou ceny k SAS Enterprise Miner zveřejněny, podle neoficiálních informací se cena serverového řešení pohybuje cca USD za 5 licencí pro první rok, následně se platí procentní podíl každý rok. Nicméně současné licencování na míru přesným požadavků se může velmi lišit a reagovat tak na podstatně levnější konkurenci. Obecně lze tedy říci, že se z pohledu DM jedná o nejdražší řešení a setkat se s ním lze pouze na univerzitách či ve velkých korporátních společnostech. Posledním nástrojem je DM platforma v podání společnosti Microsoft. Nástroj je integrován přímo do produktu MS SQL Server 2012, který zmiňovaná dodavatelská firma Data XYZ, s. r. o., běžně používá k implementaci Business Intelligence řešení. Právě tato dostupnost a těsná provázanost s kvalitním databázovým serverem je podle názoru autora nejlepším možným řešením pro komerční nasazení DM modelů. Data Mining projekt se řeší v prostředí SQL Server Data Tools a nabízí všechny potřebné algoritmy a hodnotící techniky (klasifikační matice, ROC křivka, lift křivka, rozbor rozhodovacího stromu). I v případě, že dodavatelská softwarová firma nemá licenci MS SQL Server a přesto chce poskytovat služby v Data Mining analytice a vyvíjet DM modely, vychází toto řešení na částku USD pro server a 5 klientů (typ licence CAL) navíc oproti SAS Enterprise Miner získá jako bonus licenci na plnohodnotný databázový server. Výpočet vychází podle aktuálního licenčního modelu firmy Microsoft pro rok Přestože toto řešení nedosahuje všech předností specializovaného řešení od SAS, jedná se o velmi kvalitní a relativně levný nástroj pro profesionální použití. 4.7 Integrace znalostního modelu do existujícího BI řešení V tuto chvíli bychom měli mít z původního prototypu modelu validní a robustní znalostní modelu, který se bude dále integrovat pro reálné využití ve výrobní firmě. Celé řešení je postaveno na tří vrstvé architektuře, kdy základní datovou vrstvu u klienta představuje jeho existující ERP systém a datový sklad. Již bylo zmíněno, že klient disponuje existujícím Business Intelligence řešením. Proto úkolem dodavatele je toto BI řešení rozšířit o 75

83 znalostní vrstvu, tedy validní znalostní model, který je dostatečně robustní pro plánování za různých podmínek. Při implementaci znalostního modelu hrozí riziko, že uživatel nástroje přijme chování a pravidla simulačního modelu jako naprosto pravdivá, bez ohledu na realitu. Tento znalostní model je postaven tak, aby dával co nejvěrnější obraz reality a uživatel se na něj mohl v maximální možné míře spolehnout, přesto je nutné pamatovat na reálnou změnu podmínek všech vstupujících parametrů či jejich vztahů, které k dynamickému prostředí patří. Pro tyto účely dodatečného ověřování platnosti modelu je současně dodán Data Mining model, kterým prochází také vstupní parametry. Myšlenka duálního nasazení DM i KM modelu spočívá ve vzájemné verifikaci. Pokud budou po určitý čas oba modelu správně predikovat výstupní hodnoty na základě reálných parametrů, je vše v pořádku a lze používat znalostní model k simulování různých situací. Ve chvíli, kdy se oba modely začnou odchylovat od skutečných výstupů, je zde jasný indikátor k úpravě znalostního modelu a k novému naučení Data Mining modelu. Tato situace by naznačovala, že v reálném procesu došlo ke změnám, které při původním zpracování modelu neexistovaly. Pokud by nastala situace, že DM model bude predikovat správné hodnoty ve vztahu s realitou a znalostní model se začne lišit, může to znamenat, že ve znalostním modelu je opomenut určitý vztah a znovu se tato situace stává indikátorem k úpravě znalostního modelu. I když je důsledek uvedených situací vždy stejný a tím je úprava KM modelu, máme díky této kombinaci jasnější představu, na základě jaké události vznikla potřeb úpravy znalostního modelu. Tato informace je využitelná pro dodavatelskou firmu, která celé analytické řešení spravuje. Jak dojde k implementaci znalostního a DM modelu do existujícího Business Intelligence řešení ilustruje následující obrázek

84 Obr. 36 Architektura řešení se znalostní vrstvou a DM modelem (autor) Na obrázku je znázorněna architektura, která se použije při nasazení zkonstruovaného znalostní modelu. Paralelně je již ze zmíněných důvodů nasazen i DM model. Datová vrstva je plněna sběrem údajů z reálného prostředí, konkrétně v tomto projektu se jedná o parametry výrobního procesu, jejichž výsledkem je výstup strojních součástí. Tento sběr reálných dat je velmi důležitý v celém procesu, proto je zajištěno pomocí datové integrace skutečné komplexní sledování všech veličin. Nasazení čárových kódů je samozřejmé. V případě nutnosti a lepší sledovatelnosti operací je možné dále nasadit RFID čipy, díky kterým lze sběr dat ještě více zautomatizovat. V datové vrstvě tedy máme k dispozici všechna potřebná data, která vstupují v rámci dalšího zpracování do logické vrstvy. V tradičním Business Intelligence řešení je využita 77

Základy business intelligence. Jaroslav Šmarda

Základy business intelligence. Jaroslav Šmarda Základy business intelligence Jaroslav Šmarda Základy business intelligence Business intelligence Datový sklad On-line Analytical Processing (OLAP) Kontingenční tabulky v MS Excelu jako příklad OLAP Dolování

Více

Business Intelligence

Business Intelligence Business Intelligence Skorkovský KAMI, ESF MU Principy BI zpracování velkých objemů dat tak, aby výsledek této akce manažerům pomohl k rozhodování při řízení procesů výsledkem zpracování musí být relevantní

Více

Marketingová komunikace. 3. soustředění. Mgr. Pavel Vávra 9103@mail.vsfs.cz. Kombinované studium Skupina N9KMK3PH (vm3bph)

Marketingová komunikace. 3. soustředění. Mgr. Pavel Vávra 9103@mail.vsfs.cz. Kombinované studium Skupina N9KMK3PH (vm3bph) Marketingová komunikace Kombinované studium Skupina N9KMK3PH (vm3bph) 3. soustředění Mgr. Pavel Vávra 9103@mail.vsfs.cz http://vavra.webzdarma.cz/home/index.htm Zdroje Studijní materiály Heleny Palovské

Více

Informační systémy 2006/2007

Informační systémy 2006/2007 13 Vysoká škola báňská Technická univerzita Ostrava Fakulta strojní, Katedra automatizační techniky a řízení Informační systémy 2006/2007 Ivan Kedroň 1 Obsah Analytické nástroje SQL serveru. OLAP analýza

Více

Obsah. Kapitola 1. Kapitola 2. Kapitola 3. Úvod 9

Obsah. Kapitola 1. Kapitola 2. Kapitola 3. Úvod 9 Obsah Úvod 9 Kapitola 1 Business Intelligence, datové sklady 11 Přechod od transakčních databází k analytickým..................... 13 Kvalita údajů pro analýzy................................................

Více

Aplikace IS, outsourcing, systémová integrace. Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/

Aplikace IS, outsourcing, systémová integrace. Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Aplikace IS, outsourcing, systémová integrace Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Kontext Dodavatelé Strategická Zákazníci ERP Taktická Operativní Kategorie ERP - zaměřeno na

Více

10. Datové sklady (Data Warehouses) Datový sklad

10. Datové sklady (Data Warehouses) Datový sklad 10. Datové sklady (Data Warehouses) Datový sklad komplexní data uložená ve struktuře, která umožňuje efektivní analýzu a dotazování data čerpána z primárních informačních systémů a dalších zdrojů OLAP

Více

AdventureWorksDW2014 SQL Server Data Tools Multidimenziona lnı model Tabula rnı model Multidimenziona lnı mo d Tabula rnı mo d MS SQL Server 2016 Tabula rnı mo d Azure Analysis Services 16 3.2 Dimenzionální

Více

CPM/BI a jeho návaznost na podnikové informační systémy. Martin Závodný

CPM/BI a jeho návaznost na podnikové informační systémy. Martin Závodný CPM/BI a jeho návaznost na podnikové informační systémy Martin Závodný Agenda Význam CPM/BI Aplikace CPM/BI Projekty CPM/BI Kritické body CPM/BI projektů Trendy v oblasti CPM/BI Diskuse Manažerské rozhodování

Více

Business Intelligence

Business Intelligence Business Intelligence Josef Mlnařík ISSS Hradec Králové 7.4.2008 Obsah Co je Oracle Business Intelligence? Definice, Od dat k informacím, Nástroj pro operativní řízení, Integrace informací, Jednotná platforma

Více

Databázové systémy. 10. přednáška

Databázové systémy. 10. přednáška Databázové systémy 10. přednáška Business Intelligence Poprvé byl termín BI použit Gartnerem a dále pak popularizován Howardem Dresnerem jako: proces zkoumání doménově strukturovaných informací za účelem

Více

3 zdroje dat. Relační databáze EIS OLAP

3 zdroje dat. Relační databáze EIS OLAP Zdroje dat 3 zdroje dat Relační databáze EIS OLAP Relační databáze plochá dvourozměrná tabulková data OLTP (Online Transaction Processing) operace selekce projekce spojení průnik, sjednocení, rozdíl dotazování

Více

Marketingová komunikace. 2. a 3. soustředění. Mgr. Pavel Vávra 9103@mail.vsfs.cz. Kombinované studium Skupina N9KMK3PH (vm3aph)

Marketingová komunikace. 2. a 3. soustředění. Mgr. Pavel Vávra 9103@mail.vsfs.cz. Kombinované studium Skupina N9KMK3PH (vm3aph) Marketingová komunikace Kombinované studium Skupina N9KMK3PH (vm3aph) 2. a 3. soustředění Mgr. Pavel Vávra 9103@mail.vsfs.cz http://vavra.webzdarma.cz/home/index.htm Co nás čeká: 2. soustředění 16.1.2009

Více

Aplikace IS, outsourcing, systémová integrace. Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/

Aplikace IS, outsourcing, systémová integrace. Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Aplikace IS, outsourcing, systémová integrace Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Kontext Dodavatelé Strategická Zákazníci ERP Taktická Operativní Kategorie ERP - zaměřeno na

Více

Profitabilita klienta v kontextu Performance management

Profitabilita klienta v kontextu Performance management IBM Technical specialist team Pre Sale 26/10/2010 Profitabilita klienta v kontextu Performance management Co všechno řadíme do PM? Automatická data Běžný reporting Pokročilé statistické modely Včera What

Více

Základní informace o co se jedná a k čemu to slouží

Základní informace o co se jedná a k čemu to slouží Základní informace o co se jedná a k čemu to slouží založené na relačních databází transakční systémy, které jsou určeny pro pořizování a ukládání dat v reálném čase (ERP, účetní, ekonomické a další podnikové

Více

Datová kvalita základ úspěšného BI. RNDr. Ondřej Zýka, Profinit

Datová kvalita základ úspěšného BI. RNDr. Ondřej Zýka, Profinit Datová kvalita základ úspěšného BI RNDr. Ondřej Zýka, Profinit 1.6.2012 Datová exploze Snižování nákladů o Zdvojnásobení objemu podnikových dat každé dva roky o Konkurenční tlak o Ekonomická krize o V

Více

Nová dimenze rozhodovacího procesu

Nová dimenze rozhodovacího procesu Nová dimenze rozhodovacího procesu Marek Matoušek Pavel Mašek Data, nebo INFORMACE Využití dostupných firemních dat Několik systémů, mnoho různých dat Různé divize, různé potřeby Potřeba integrace dat

Více

Business Intelligence. Adam Trčka

Business Intelligence. Adam Trčka Business Intelligence Adam Trčka 09:00 11:30: BI v kostce Navrhněme si sklad Ukázka BI Datamining 12:30 14:30: Pokračování kurzu 14:30 15:00: Q&A Agenda Co se dnes dovíme? Data informace znalost Business

Více

Bu B sin i e n s e s s I n I te t l e lig i en e c n e c Skorkovský KA K M A I, E S E F MU

Bu B sin i e n s e s s I n I te t l e lig i en e c n e c Skorkovský KA K M A I, E S E F MU Business Intelligence Skorkovský KAMI, ESF MU Principy BI zpracování velkých objemů dat tak, aby výsledek této akce manažerům pomohl k rozhodování při řízení procesů výsledkem zpracování musí být relevantní

Více

Infor Performance management. Jakub Urbášek

Infor Performance management. Jakub Urbášek Infor Performance management Jakub Urbášek Agenda prezentace Stručně o produktu Infor PM 10 Komponenty Infor PM - PM OLAP a PM Office Plus Reporting Analýza Plánování / operativní plánování Infor Performance

Více

Ing. Roman Danel, Ph.D. 2010

Ing. Roman Danel, Ph.D. 2010 Datový sklad Ing. Roman Danel, Ph.D. 2010 Co je to datový sklad a kdy se používá? Pojmem datový sklad (anglicky Data Warehouse) označujeme zvláštní typ databáze, určený primárně pro analýzy dat v rámci

Více

Moderní metody automatizace a hodnocení marketingových kampaní

Moderní metody automatizace a hodnocení marketingových kampaní Moderní metody automatizace a hodnocení marketingových kampaní SAS CI Roadshow 2014 24/09/2014 Vít Stinka Agenda Představení společnosti Unicorn Systems Aliance Unicorn Systems a SAS Celkový koncept Customer

Více

Aplikace IS, outsourcing, systémová integrace. Jaroslav Žáček

Aplikace IS, outsourcing, systémová integrace. Jaroslav Žáček Aplikace IS, outsourcing, systémová integrace Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Kontext Dodavatelé Strategická Zákazníci Taktická Operativní Kategorie ERP - zaměřeno na řízení

Více

Architektury Informačních systémů. Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/

Architektury Informačních systémů. Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Architektury Informačních systémů Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Nutné pojmy Co je to informační systém? Jaké oblasti zahrnuje? Jaká je vazba IS na podnikovou strategii?

Více

BI v rámci IS/ICT komponenty BI architektura. Charakteristika dat a procesů v IS/ICT. Datové sklady ukládání dat návrh datového skladu

BI v rámci IS/ICT komponenty BI architektura. Charakteristika dat a procesů v IS/ICT. Datové sklady ukládání dat návrh datového skladu BI v rámci IS/ICT komponenty BI architektura Charakteristika dat a procesů v IS/ICT Datové sklady ukládání dat návrh datového skladu BI CRM ERP SCM Aplikace pro podporu základních řídících a administrativních

Více

DATABÁZOVÉ SYSTÉMY. Metodický list č. 1

DATABÁZOVÉ SYSTÉMY. Metodický list č. 1 Metodický list č. 1 Cíl: Cílem předmětu je získat přehled o možnostech a principech databázového zpracování, získat v tomto směru znalosti potřebné pro informačního manažera. Databázové systémy, databázové

Více

Architektury Informačních systémů. Jaroslav Žáček

Architektury Informačních systémů. Jaroslav Žáček Architektury Informačních systémů Jaroslav Žáček jaroslav.zacek@osu.cz http://www1.osu.cz/~zacek/ Nutné pojmy Co je to informační systém? Jaké oblasti zahrnuje? Jaká je vazba IS na podnikovou strategii?

Více

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 DOLOVÁNÍ V DATECH (DATA MINING) OBJEVUJE SE JIŽ OD 60. LET 20. ST. S ROZVOJEM POČÍTAČOVÉ TECHNIKY DEFINICE PROCES VÝBĚRU, PROHLEDÁVÁNÍ A MODELOVÁNÍ

Více

BIG DATA. Nové úlohy pro nástroje v oblasti BI. 27. listopadu 2012

BIG DATA. Nové úlohy pro nástroje v oblasti BI. 27. listopadu 2012 BIG DATA Nové úlohy pro nástroje v oblasti BI 27. listopadu 2012 AGENDA 1. Úvod 2. Jaké jsou potřeby? 3. Možné řešení 2 Jaké jsou potřeby? Dopady Analýza dat potřeba nového přístupu Jak na nestrukturovaná

Více

3. Očekávání a efektivnost aplikací

3. Očekávání a efektivnost aplikací VYUŽÍVANÍ INFORMAČNÍCH SYSTÉMŮ V ŘÍZENÍ FIREM Ota Formánek 1 1. Úvod Informační systémy (IS) jsou v současnosti naprosto nezbytné pro úspěšné řízení firem. Informačním ním systémem rozumíme ucelené softwarové

Více

Datové sklady. Ing. Jan Přichystal, Ph.D. 1. listopadu 2011. PEF MZLU v Brně

Datové sklady. Ing. Jan Přichystal, Ph.D. 1. listopadu 2011. PEF MZLU v Brně PEF MZLU v Brně 1. listopadu 2011 Úvod Intenzivní nasazení informačních technologií způsobuje hromadění obrovské spousty nejrůznějších údajů. Příkladem mohou být informace z obchodování s cennými papíry

Více

Ing. Petr Kalčev, Ph.D.

Ing. Petr Kalčev, Ph.D. Ing. Petr Kalčev, Ph.D. 17.10.2017 24.10.2017 31.10.2017 7.11.2017 14.11.2017 21.11.2017 28.11.2017 5.12.2017 12.12.2017 19.12.2017 Úvod do manažerský informačních systémů Typy informačních systémů Příklady

Více

Helios Easy. integrované řešení pro řízení

Helios Easy. integrované řešení pro řízení integrované řešení pro řízení Skupina ASSECO je jedním z nejvýznamnějších softwarových domů ve střední Evropě. Chcete držet své náklady více pod kontrolou? Potřebujete, aby vaše investice měly rychlou

Více

ARCHITEKTURA INFORMAČNÍCH SYSTÉMŮ PODLE ÚROVNĚ ŘÍZENÍ

ARCHITEKTURA INFORMAČNÍCH SYSTÉMŮ PODLE ÚROVNĚ ŘÍZENÍ ARCHITEKTURA INFORMAČNÍCH SYSTÉMŮ PODLE ÚROVNĚ ŘÍZENÍ Podle toho, zda informační systém funguje na operativní, taktické nebo strategické řídicí úrovni, můžeme systémy rozdělit do skupin. Tuto pyramidu

Více

Využití IT nástrojů pro měření a řízení výkonnosti. Michal Kroutil 22.11.2005

Využití IT nástrojů pro měření a řízení výkonnosti. Michal Kroutil 22.11.2005 Využití IT nástrojů pro měření a řízení výkonnosti Michal Kroutil 22.11.2005 1 Obsah 1 2 3 4 5 Představení Ciber Novasoft Klíčové ukazatele výkonnosti Zdroje dat SAP SEM Implementační projekt 2 Představení

Více

Databázové systémy. Doc.Ing.Miloš Koch,CSc. koch@fbm.vutbr.cz

Databázové systémy. Doc.Ing.Miloš Koch,CSc. koch@fbm.vutbr.cz Databázové systémy Doc.Ing.Miloš Koch,CSc. koch@fbm.vutbr.cz Vývoj databázových systémů Ukládání dat Aktualizace dat Vyhledávání dat Třídění dat Výpočty a agregace 60.-70. léta Program Komunikace Výpočty

Více

Databáze Bc. Veronika Tomsová

Databáze Bc. Veronika Tomsová Databáze Bc. Veronika Tomsová Databázové schéma Mapování konceptuálního modelu do (relačního) databázového schématu. 2/21 Fyzické ik schéma databáze Určuje č jakým způsobem ů jsou data v databázi ukládána

Více

Od klasického reportingu k SAP BO Design studio na BW power by HANA Pavel Strnad

Od klasického reportingu k SAP BO Design studio na BW power by HANA Pavel Strnad Od klasického reportingu k SAP BO Design studio na BW power by HANA Pavel Strnad CIO PIA5 NSC Prague Obsah Představení firmy Migrace BW to HANA BI architektura ve Wincor Nixdorf Migrační varianty z BW

Více

Informační systémy 2008/2009. Radim Farana. Obsah. Obsah předmětu. Požadavky kreditového systému. Relační datový model, Architektury databází

Informační systémy 2008/2009. Radim Farana. Obsah. Obsah předmětu. Požadavky kreditového systému. Relační datový model, Architektury databází 1 Vysoká škola báňská Technická univerzita Ostrava Fakulta strojní, Katedra automatizační techniky a řízení 2008/2009 Radim Farana 1 Obsah Požadavky kreditového systému. Relační datový model, relace, atributy,

Více

Datový sklad. Datový sklad

Datový sklad. Datový sklad Datový sklad Postavení v rámci IS/ICT Specifika návrhu Modelování Datový sklad POSTAVENÍ NÁVRH Postavení datového skladu (DW) v IS/ICT z hlediska aplikací jako součást Business Intelligence z hlediska

Více

Zdroje informací v organizaci IS/ICT BI v rámci IS/ICT historie architektura OLTP x DW ukládání dat

Zdroje informací v organizaci IS/ICT BI v rámci IS/ICT historie architektura OLTP x DW ukládání dat Zdroje informací v organizaci IS/ICT BI v rámci IS/ICT historie architektura OLTP x DW ukládání dat Vladimíra Zádová BI CRM ERP SCM Aplikace pro podporu základních řídících a administrativních operací

Více

T T. Think Together 2012. Martin Závodný THINK TOGETHER. Business Intelligence systémy Business Intelligence systems

T T. Think Together 2012. Martin Závodný THINK TOGETHER. Business Intelligence systémy Business Intelligence systems Česká zemědělská univerzita v Praze Provozně ekonomická fakulta Doktorská vědecká konference 6. února 2012 T T THINK TOGETHER Think Together 2012 Business Intelligence systémy Business Intelligence systems

Více

MIS. Manažerský informační systém. pro. Ekonomický informační systém EIS JASU CS. Dodavatel: MÚZO Praha s.r.o. Politických vězňů 15 110 00 Praha 1

MIS. Manažerský informační systém. pro. Ekonomický informační systém EIS JASU CS. Dodavatel: MÚZO Praha s.r.o. Politických vězňů 15 110 00 Praha 1 MIS Manažerský informační systém pro Ekonomický informační systém EIS JASU CS Dodavatel: MÚZO Praha s.r.o. Politických vězňů 15 110 00 Praha 1 Poslední aktualizace dne 5.8.2014 MÚZO Praha s.r.o. je certifikováno

Více

Jak připravit podnikový controlling a ABC Multidimenzionální vyhodnocování ziskovosti

Jak připravit podnikový controlling a ABC Multidimenzionální vyhodnocování ziskovosti Jak připravit podnikový controlling a ABC Multidimenzionální vyhodnocování ziskovosti Dean Brabec, Petra Řeřichová Cíle prezentace Specifikovat rozdíly mezi klasickým přístupem controllingu a sledováním

Více

Získávání dat z databází 1 DMINA 2010

Získávání dat z databází 1 DMINA 2010 Získávání dat z databází 1 DMINA 2010 Získávání dat z databází Motto Kde je moudrost? Ztracena ve znalostech. Kde jsou znalosti? Ztraceny v informacích. Kde jsou informace? Ztraceny v datech. Kde jsou

Více

ELO Analytics Vaše obchodní metriky na jednom místě. Vaše obchodní metriky na jednom místě. Enterprise Content Management

ELO Analytics Vaše obchodní metriky na jednom místě. Vaše obchodní metriky na jednom místě. Enterprise Content Management ELO Analytics ELO Analytics Enterprise Content Management www.elo.com ELO ECM Suite 10 ELO Analytics pro správu informací ELO Analytics vám umožňují zhodnotit a pochopit veškerá data vaší společnosti na

Více

Příprava dat v softwaru Statistica

Příprava dat v softwaru Statistica Příprava dat v softwaru Statistica Software Statistica obsahuje pokročilé nástroje pro přípravu dat a tvorbu nových proměnných. Tyto funkcionality přinášejí značnou úsporu času při přípravě datového souboru,

Více

Systémy pro podporu. rozhodování. 2. Úvod do problematiky systémů pro podporu. rozhodování

Systémy pro podporu. rozhodování. 2. Úvod do problematiky systémů pro podporu. rozhodování 1 Systémy pro podporu rozhodování 2. Úvod do problematiky systémů pro podporu rozhodování 2 Připomenutí obsahu minulé přednášky Rozhodování a jeho počítačová podpora Manažeři a rozhodování K čemu počítačová

Více

FINANČNÍ KONSOLIDACE TEORIE A PRAKTICKÁ REALIZACE PROSTŘEDNICTVÍM INFORMAČNÍCH SYSTÉMŮ

FINANČNÍ KONSOLIDACE TEORIE A PRAKTICKÁ REALIZACE PROSTŘEDNICTVÍM INFORMAČNÍCH SYSTÉMŮ FINANČNÍ KONSOLIDACE TEORIE A PRAKTICKÁ REALIZACE PROSTŘEDNICTVÍM INFORMAČNÍCH SYSTÉMŮ Ing. Milan Bartoš Capgemini Sophia s.r.o. member of the Capgemini Group Abstrakt Cílem článku je představit teoreticky

Více

Architektura informačních systémů. - dílčí architektury - strategické řízení taktické řízení. operativní řízení a provozu. Globální architektura

Architektura informačních systémů. - dílčí architektury - strategické řízení taktické řízení. operativní řízení a provozu. Globální architektura Dílčí architektury Informační systémy - dílčí architektury - EIS MIS TPS strategické řízení taktické řízení operativní řízení a provozu 1 Globální Funkční Procesní Datová SW Technologická HW Aplikační

Více

4IT218 Databáze. 4IT218 Databáze

4IT218 Databáze. 4IT218 Databáze 4IT218 Databáze Osmá přednáška Dušan Chlapek (katedra informačních technologií, VŠE Praha) 4IT218 Databáze Osmá přednáška Normalizace dat - dokončení Transakce v databázovém zpracování Program přednášek

Více

Business Intelligence a datové sklady

Business Intelligence a datové sklady Business Intelligence a datové sklady Ing Jan Přichystal, PhD Mendelova univerzita v Brně 2 prosince 2014 Ing Jan Přichystal, PhD Úvod Intenzivní nasazení informačních technologií způsobuje hromadění obrovské

Více

Business Intelligence nástroje a plánování

Business Intelligence nástroje a plánování Business Intelligence nástroje a plánování pro snadné reportování a vizualizaci Petr Mlejnský Business Intelligence pro reporting, analýzy a vizualizaci Business Intelligence eporting Dashboardy a vizualizace

Více

MBI - technologická realizace modelu

MBI - technologická realizace modelu MBI - technologická realizace modelu 22.1.2015 MBI, Management byznys informatiky Snímek 1 Agenda Technická realizace portálu MBI. Cíle a principy technického řešení. 1.Obsah portálu - objekty v hierarchiích,

Více

Trendy v IS/ICT přístupy k návrhu multidimenzionální modelování

Trendy v IS/ICT přístupy k návrhu multidimenzionální modelování Trendy v IS/ICT přístupy k návrhu multidimenzionální modelování Aplikace IS/ICT BI SCM e-business ERP ERP CRM II e-business Aplikace pro podporu základních řídících a administrativních operací 1 Informační

Více

Efektivní řízení pomocí Business Intelligence. Ján Zajíc (Clever Decision) Robert Havránek (Microsoft)

Efektivní řízení pomocí Business Intelligence. Ján Zajíc (Clever Decision) Robert Havránek (Microsoft) Efektivní řízení pomocí Business Intelligence Ján Zajíc (Clever Decision) Robert Havránek (Microsoft) Kde najdete nejefektivnějšího manažera? Hierarchie řízení a informační potřeby High level, agregované

Více

PODNIKOVÁ INFORMATIKA

PODNIKOVÁ INFORMATIKA GÁLA Libor POUR Jan TOMAN Prokop PODNIKOVÁ INFORMATIKA Obsah O autorech... 11 Na úvod jak chápat tuto knihu... 13 Část I: Principy podnikové informatiky... 17 1. Informatika, aplikovaná informatika, podniková

Více

Problémové domény a jejich charakteristiky

Problémové domény a jejich charakteristiky Milan Mišovič (ČVUT FIT) Pokročilé informační systémy MI-PIS, 2011, Přednáška 02 1/16 Problémové domény a jejich charakteristiky Prof. RNDr. Milan Mišovič, CSc. Katedra softwarového inženýrství Fakulta

Více

TM1 vs Planning & Reporting

TM1 vs Planning & Reporting R TM1 vs Planning & Reporting AUDITOVATELNOST? ZABEZPEČENÍ? SDÍLENÍ? KONSOLIDACE? PROPOJITELNOST???? TM1?? COGNOS PLANNING IBM COGNOS 8 PLANNING Cognos Planning Podpora plánovacího cyklu Jednoduchá tvorba

Více

Obsah Úvod 11 Jak být úspěšný Základy IT

Obsah Úvod 11 Jak být úspěšný Základy IT Obsah Úvod 11 Jak být úspěšný 13 Krok 0: Než začneme 13 Krok 1: Vybrat si dobře placenou oblast 14 Krok 2: Vytvořit si plán osobního rozvoje 15 Krok 3: Naplnit osobní rozvoj 16 Krok 4: Osvojit si důležité

Více

Datová věda (Data Science) akademický navazující magisterský program

Datová věda (Data Science) akademický navazující magisterský program Datová věda () akademický navazující magisterský program Reaguje na potřebu, kterou vyvolala rychle rostoucí produkce komplexních, obvykle rozsáhlých dat ve vědě, v průmyslu a obecně v hospodářských činnostech.

Více

Vývoj moderních technologií při vyhledávání. Patrik Plachý SEFIRA spol. s.r.o. plachy@sefira.cz

Vývoj moderních technologií při vyhledávání. Patrik Plachý SEFIRA spol. s.r.o. plachy@sefira.cz Vývoj moderních technologií při vyhledávání Patrik Plachý SEFIRA spol. s.r.o. plachy@sefira.cz INFORUM 2007: 13. konference o profesionálních informačních zdrojích Praha, 22. - 24.5. 2007 Abstrakt Vzhledem

Více

<Insert Picture Here> Na co se můžete s Oracle BI těšit

<Insert Picture Here> Na co se můžete s Oracle BI těšit Na co se můžete s Oracle BI těšit Tomáš Pospíšil, Oracle Czech Olomouc, 6.3.2014 Oracle BI Ukázka Oracle BI Možnosti platformy Oracle Business

Více

Úvodní přednáška. Význam a historie PIS

Úvodní přednáška. Význam a historie PIS Úvodní přednáška Význam a historie PIS Systémy na podporu rozhodování Manažerský informační systém Manažerské rozhodování Srovnávání, vyhodnocování, kontrola INFORMACE ROZHODOVÁNÍ organizace Rozhodovacích

Více

Ondřej Bothe, Richard Dobiš

Ondřej Bothe, Richard Dobiš Portfolio PM - "What-if" analýza v plánovací aplikaci Ondřej Bothe, Richard Dobiš 2.2.2011 PM systém : Je to systém, zajišťující komplexní proces práce s daty pro koncového uživatele 1. Plánuj Plán nákladů

Více

Podnikové informační systémy Jan Smolík

Podnikové informační systémy Jan Smolík Podnikové informační systémy Jan Smolík Zobecněné schéma aplikační architektury Vlastníci, management Aplikační architektura podnikové informatiky Business Intelligence, manažerské aplikace Obchodní partneři

Více

Softwarová podpora v procesním řízení

Softwarová podpora v procesním řízení Softwarová podpora v procesním řízení Zkušenosti z praxe využití software ATTIS Ostrava, 7. října 2010 www.attis.cz ATTN Consulting s.r.o. 1 Obsah Koncepce řízení výkonnosti Koncepce řízení výkonnosti

Více

On line analytical processing (OLAP) databáze v praxi

On line analytical processing (OLAP) databáze v praxi On line analytical processing (OLAP) databáze v praxi Lukáš Matějovský Lukas.Matejovsky@CleverDecision.com Jan Zajíc Jan.Zajic@CleverDecision.com Obsah Představení přednášejících Základy OLAP Příklady

Více

Management IS. Doc.Ing.Miloš Koch,CSc. koch@fbm.vutbr.cz 22/ 1

Management IS. Doc.Ing.Miloš Koch,CSc. koch@fbm.vutbr.cz 22/ 1 Management IS Doc.Ing.Miloš Koch,CSc. koch@fbm.vutbr.cz 22/ 1 Učitelé Přednášející: Cvičící: Doc.Ing.Miloš Koch,CSc. Ing.Aleš Klusák Kontakt: koch@fbm.vutbr.cz 22/ 2 Literatura Skripta: Koch,M. Dovrtěl,J.:

Více

Analýza a vizualizace dat

Analýza a vizualizace dat Analýza a vizualizace dat Business intelligence Jednou z dalších oblastí, která spadá do sféry systémové integrace, je návrh a implementace řešení, spadajících do oblasti nazývané Business Intelligence

Více

Obsah. Zpracoval:

Obsah. Zpracoval: Zpracoval: houzvjir@fel.cvut.cz 03. Modelem řízený vývoj. Doménový (business), konceptuální (analytický) a logický (návrhový) model. Vize projektu. (A7B36SIN) Obsah Modelem řízený vývoj... 2 Cíl MDD, proč

Více

PostgreSQL jako platforma pro datové sklady

PostgreSQL jako platforma pro datové sklady PostgreSQL jako platforma pro datové sklady Vratislav Beneš benes@optisolutions.cz 1. Co to jsou datové sklady? 2. Požadavky na datový sklady 3. Technické řešení datového skladu 4. PostgreSQL a datové

Více

Performance Management What if?

Performance Management What if? Performance Management What if? Ondřej Bothe, IT Specialist ondrej_bothe@cz.ibm.com Agenda: Koncept PM s What if nástroji Ukázka tvorby What if modelu (Ukázka pokročilejší What if aplikace) Performance

Více

Metodika analýzy. Příloha č. 1

Metodika analýzy. Příloha č. 1 Metodika analýzy Příloha č. 1 Příloha č. 1 1 Účel dokumentu Dokument popisuje závaznou metodiku systémové analýzy, je upraven na míru pro prostředí Podniku. Dokument je provázán s Podnikovou analýzou,

Více

Konsolidovaný reporting CZ/SK v Cognos případová studie sanofi-aventis

Konsolidovaný reporting CZ/SK v Cognos případová studie sanofi-aventis Konsolidovaný reporting CZ/SK v Cognos případová studie sanofi-aventis Rosťa Levíček 22. listopadu 2011 Obsah Výchozí stav a požadavky Architektura řešení v CZ Varianty konsolidace Klíčové faktory úspěchu

Více

Business Intelligence 2015. Hlavní témata, která budou v roce 2015 určovat vývoj business intelligence řešení a služeb.

Business Intelligence 2015. Hlavní témata, která budou v roce 2015 určovat vývoj business intelligence řešení a služeb. Business Intelligence 2015 Hlavní témata, která budou v roce 2015 určovat vývoj business intelligence řešení a služeb. Leden 2015 Téma č. 1: Cloudové služby budou využívat lokální data V roce 2015 se zvýší

Více

Marketingová komunikace. 2. soustředění. Mgr. Pavel Vávra 9103@mail.vsfs.cz. Kombinované studium Skupina N9KMK1aPH/N9KMK1bPH (um1a1ph/um1b1ph)

Marketingová komunikace. 2. soustředění. Mgr. Pavel Vávra 9103@mail.vsfs.cz. Kombinované studium Skupina N9KMK1aPH/N9KMK1bPH (um1a1ph/um1b1ph) Marketingová komunikace Kombinované studium Skupina N9KMK1aPH/N9KMK1bPH (um1a1ph/um1b1ph) 2. soustředění Mgr. Pavel Vávra 9103@mail.vsfs.cz http://vavra.webzdarma.cz/home/index.htm Minulé soustředění úvod

Více

Manažerský reporting a finanční plánování Targetty

Manažerský reporting a finanční plánování Targetty Manažerský reporting a finanční plánování Targetty v O2 Milan Štoček Milan.Stocek@CleverDecision.com Agenda Představení Clever Decision a Uniwise Targetty - Enterprise Performance Management Planning Architektura

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ Metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

Jak používat statistiky položkové v systému WinShop Std.

Jak používat statistiky položkové v systému WinShop Std. Jak používat statistiky položkové v systému WinShop Std. Systém WinShop Std. využívá k zápisům jednotlivých realizovaných pohybů (příjem zboží, dodací listy, výdejky, převodky, prodej zboží na pokladně..)

Více

Manažerská ekonomika

Manažerská ekonomika PODNIKOVÝ MANAGEMENT (zkouška č. 12) Cíl předmětu Získat znalosti zákonitostí úspěšného řízení organizace a přehled o současné teorii a praxi managementu. Seznámit se s moderními manažerskými metodami

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

GTL GENERATOR NÁSTROJ PRO GENEROVÁNÍ OBJEKTŮ OBJEKTY PRO INFORMATICA POWERCENTER. váš partner na cestě od dat k informacím

GTL GENERATOR NÁSTROJ PRO GENEROVÁNÍ OBJEKTŮ OBJEKTY PRO INFORMATICA POWERCENTER. váš partner na cestě od dat k informacím GTL GENERATOR NÁSTROJ PRO GENEROVÁNÍ OBJEKTŮ OBJEKTY PRO INFORMATICA POWERCENTER váš partner na cestě od dat k informacím globtech spol. s r.o. karlovo náměstí 17 c, praha 2 tel.: +420 221 986 390 info@globtech.cz

Více

Systémy pro podporu rozhodování. Hlubší pohled 2

Systémy pro podporu rozhodování. Hlubší pohled 2 Systémy pro podporu rozhodování Hlubší pohled 2 1 Připomenutí obsahu minulé přednášky Motivační příklad Konfigurace DSS Co to je DSS? definice Charakterizace a možnosti DSS Komponenty DSS Subsystém datového

Více

Analýzou dat k efektivnějšímu rozhodování

Analýzou dat k efektivnějšímu rozhodování Analýzou dat k efektivnějšímu rozhodování Chytrá řešení pro veřejnou správu Václav Bahník, ECM Solution Consultant Marek Šoule, ECM Software Sales Representative 8.4.2013 Řízení efektivního poskytování

Více

Obsah Úvod Kapitola 1 Než začneme Kapitola 2 Práce s hromadnými daty před analýzou

Obsah Úvod Kapitola 1 Než začneme Kapitola 2 Práce s hromadnými daty před analýzou Úvod.................................................................. 11 Kapitola 1 Než začneme.................................................................. 17 1.1 Logika kvantitativního výzkumu...........................................

Více

Dobývání znalostí z databází. Databáze. datum jmeno prijmeni adresa_ulice adresa_mesto cislo_uctu platba zustatek

Dobývání znalostí z databází. Databáze. datum jmeno prijmeni adresa_ulice adresa_mesto cislo_uctu platba zustatek Databáze datum jmeno prijmeni adresa_ulice adresa_mesto cislo_uctu platba zustatek 980103 Jan Novak Dlouha 5 Praha 1 9945371 100.00 100.00 980105 Jan Novak Dlouha 5 Praha 1 9945371 1500.00 1600.00 980106

Více

powerful SAP-Solutions

powerful SAP-Solutions We deliver powerful SAP-Solutions to the World! Praktický průvodce novými SAP technologiemi Září 2015 Martin Chmelař itelligence, a.s. Milníky: 2002: založení společnosti 2008: společnost členem itelligence

Více

Analýza a modelování dat. Přednáška 8

Analýza a modelování dat. Přednáška 8 Analýza a modelování dat Přednáška 8 OLAP, datová kostka, dotazování nad kostkou Motivace většina DB relační zaznamenání vztahů pomocí logicky provázaných tabulek jakou mají velmi často vztahy povahu vztah

Více

Reportingová platforma v České spořitelně

Reportingová platforma v České spořitelně Reportingová platforma v České spořitelně Agenda Implementované prostředí Cognos 8 v ČS Marek Varga, Česká spořitelna, a.s. Využití platformy Cognos z pohledu businessu Petr Kozák, Česká spořitelna, a.s.

Více

Neuronové časové řady (ANN-TS)

Neuronové časové řady (ANN-TS) Neuronové časové řady (ANN-TS) Menu: QCExpert Prediktivní metody Neuronové časové řady Tento modul (Artificial Neural Network Time Series ANN-TS) využívá modelovacího potenciálu neuronové sítě k predikci

Více

Informační média a služby

Informační média a služby Informační média a služby Výuka informatiky má na Fakultě informatiky a statistiky VŠE v Praze dlouholetou tradici. Ke dvěma již zavedeným oborům ( Aplikovaná informatika a Multimédia v ekonomické praxi

Více

NÁSTROJE BUSINESS INTELLIGENCE

NÁSTROJE BUSINESS INTELLIGENCE NÁSTROJE BUSINESS INTELLIGENCE Milena Tvrdíková VŠB Technická univerzita Ostrava, Ekonomická fakulta, Katedra informatiky v ekonomice, Sokolská 33, 701021 Ostrava1, ČR, milena.tvrdikova@vsb.cz Abstrakt

Více

Management rizika Bc. Ing. Karina Mužáková, Ph.D. BIVŠ,

Management rizika Bc. Ing. Karina Mužáková, Ph.D. BIVŠ, Management rizika Bc. Ing. Karina Mužáková, Ph.D. BIVŠ, 2015 1 5/ Řízení rizika na úrovni projektu, podniku a v rámci corporate governance. BIVŠ, 2015 2 Definice projektu říká, že se jedná o činnost, která

Více

GIS jako důležitá součást BI. Jan Broulík, Petr Panec ARCDATA PRAHA, s.r.o.

GIS jako důležitá součást BI. Jan Broulík, Petr Panec ARCDATA PRAHA, s.r.o. GIS jako důležitá součást BI Jan Broulík, Petr Panec ARCDATA PRAHA, s.r.o. ARCDATA PRAHA, s.r.o. THE GEOGRAPHIC ADVANTAGE Motto Sladit operační taktiku s organizační strategií Strategie bez taktiky je

Více

CobiT. Control Objectives for Information and related Technology. Teplá u Mariánských Lázní, 6. října 2004

CobiT. Control Objectives for Information and related Technology. Teplá u Mariánských Lázní, 6. října 2004 CobiT Control Objectives for Information and related Technology Teplá u Mariánských Lázní, 6. října 2004 Agenda Základy CobiT Pojem CobiT Domény CobiT Hodnocení a metriky dle CobiT IT Governance Řízení

Více

v praxi Rizika a přínosy zavádění BI jako nástroje pro řízení podnikání

v praxi Rizika a přínosy zavádění BI jako nástroje pro řízení podnikání Podpora rozhodování v praxi Rizika a přínosy zavádění BI jako nástroje pro řízení podnikání HanušRais Business DevelopmentManager SAS Institute ČR s.r.o. Agenda Úvod - Profil SAS Institute Pojem Business

Více

Role BI v e-business řešeních pohled do budoucnosti

Role BI v e-business řešeních pohled do budoucnosti Ing. Ota Novotný, Ph.D. katedra informačních technologií Vysoká škola ekonomická v Praze novotnyo@vse.cz katedra informačních technologií VŠE Praha jsme uznávanou autoritou v oblasti aplikované informatiky

Více

Tovek Tools. Tovek Tools jsou standardně dodávány ve dvou variantách: Tovek Tools Search Pack Tovek Tools Analyst Pack. Připojené informační zdroje

Tovek Tools. Tovek Tools jsou standardně dodávány ve dvou variantách: Tovek Tools Search Pack Tovek Tools Analyst Pack. Připojené informační zdroje jsou souborem klientských desktopových aplikací určených k indexování dat, vyhledávání informací, tvorbě různých typů analýz a vytváření přehledů a rešerší. Jsou vhodné pro práci s velkým objemem textových

Více