Univerzita Hradec Králové Fakulta informatiky a managementu. Diplomová práce Bc. Pavel KINC, DiS. Univerzita Hradec Králové

Rozměr: px
Začít zobrazení ze stránky:

Download "Univerzita Hradec Králové Fakulta informatiky a managementu. Diplomová práce. 2014 Bc. Pavel KINC, DiS. Univerzita Hradec Králové"

Transkript

1 Univerzita Hradec Králové Fakulta informatiky a managementu Diplomová práce 214 Bc. Pavel KINC, DiS. Univerzita Hradec Králové

2 Fakulta informatiky a managementu Katedra informatiky a kvantitativních metod Analýza nestrukturovaných dat Diplomová práce Autor: Bc. Pavel KINC, DiS. Studijní obor: Aplikovaná informatika Vedoucí práce: doc. RNDr. Hana SKALSKÁ, CSc. Hradec Králové květen 214

3 Prohlášení: Prohlašuji, že jsem diplomovou práci zpracoval samostatně. K získání znalostí o zpracovaném tématu jsem použil níže uvedené literatury a internetových zdrojů. V Hradci Králové dne Bc. Pavel KINC, DiS.

4 Poděkování Považuji za svou milou povinnost poděkovat svému vedoucímu práce paní doc. RNDr. Haně SKALSKÉ, CSc. za odborné vedení a cenné rady v průběhu zpracovávání vybraného tématu. Poděkování patří také firmě StatSoft, která mi poskytla, pro účely diplomové práce, časově omezenou profesionální verzi své aplikace Statistica 12CZ. V poslední řadě bych chtěl poděkovat celé své rodině za psychickou podporu.

5 Anotace Analýza nestrukturovaných dat Tato diplomová práce má za cíl přiblížit problematiku analýzy nestrukturovaných dat. Práce je zaměřena na textovou interpretaci dat především z důvodu rozsahu zpracování této problematiky. Diplomová práce je rozdělena do dvou hlavních pasáží: nastínění problematiky nestrukturovaných dat, jejich příprava před samotnou analýzou a jednotlivé úlohy pro analýzu nestrukturovaných textových dat. První část má za úkol vysvětlit pojem nestrukturovatelná data, proč je náročné jejich hromadné zpracování, jaká jsou úskalí automatické analýzy a podobně. Dále je tato část zaměřena na přípravu dat před samotnou analýzou. Jsou zde nastíněny metody převedení textových dat do numerické podoby a výběr reprezentativních vzorků pomocí různých metod. Druhá část je zaměřena na jednotlivé úlohy analýzy nestrukturovaných textových dat, též nazývaných jako Data-mining. V této části jsou nastíněny úlohy, jako je sumarizace, klasifikace, určení míry podobnosti dokumentů, vyhledávání plagiátů a podobně. Závěrečná pasáž je věnována demonstraci softwarových aplikací v úlohách Data-miningu, respektive Text-miningu. Shrnuje problematiku analýzy nestrukturovaných dat a poskytuje návrhy na možné využití popsaných analýz v praxi. Pomocí vybraných softwarových aplikací jsou demonstrovány konkrétní úlohy Text-miningu, jako jsou indexace, sumarizace, porovnání podobnosti dokumentů (plagiátorství) a podobně.

6 Anotation Unstructured data analysis This thesis aims to explain the issue of the analysis of unstructured data. The work is focused on textual interpretation of the data mainly because of the scale handling of these issues. The thesis is divided into two main passages: outlines the problems of unstructured data, their preparation before to analysis and individual tasks for analyzing unstructured text data. The first part is responsible for explanation the concept unstructured data, why is difficult their bulk processing, what are the pitfalls of automatic analysis and the like. Furthermore, this section focuses on data preparation before analysis. There are methods which convert text data into numeric form and collected representative samples using a variety of methods. The second part focuses on the individual task of analysis of unstructured text data, also known as "data-mining". This section outlines the tasks such as summarization, classification, determining the degree of similarity of documents, searching for plagiarism and the like. Final passage is devoted to demonstrating software applications in tasks "data-mining" or "text-mining". Summarizes the problems of analysis of unstructured data and provides suggestions for possible use of analysis in practice. By using of selected software applications there are demonstrated specific tasks "text-mining", such as indexing, summarizing, comparing the similarity of documents (plagiarism) and the like.

7 Obsah 1 Úvod Rozdělení dat Strukturovaná data Nestrukturovaná data Semi-strukturovaná data Analýza nestrukturovaných dat Příprava dat Model vektorového prostoru (Vector space model) Binární zápis vektoru Frekvenční zápis vektoru (TF) Frekvenční zápis vektoru s vyjádřením důležitosti slova (TF-IDF) Redukce dimenze Odstranění Stop-slov / Pos-tagging Lemmatizace Brute Force algoritmus Lovinsův algoritmus Stemming Očištění od synonym Výběr příznaků - feature selection Extrakce příznaků feature extraction Extrakce frází Mi-score (mutual Information) T-score Latentní sémantická analýza (LSA) Singular value decomposition (SVD) Úlohy pro analýzu textu Data mining Indexace textových dokumentů Shrnutí textu - sumarizace Luhnova metoda Grafová analýza hyperstuktur LexRank Klasifikace textových dokumentů (klastrování)... 37

8 4.3.1 Lexikální frekvenční analýza Shluková analýza Hierarchické shlukování Metoda nejbližšího souseda Nehierarchické shlukování Metoda k-means Fraud management Hledání plagiátů Hledání plagiátu pomocí LSA Systémy pro ukládání nestrukturovaných dat Document Management Systém Content Management System Sofwarové nástroje Data-miningu KWords Online summarize tool Statistica Theses.cz Závěr Terminologický slovník Seznam použité literatury Přílohy Seznam stop slov Nový systém odhalí plagiátorství mezi vědci... 67

9 Seznam obrázků Obrázek 1 Rozdělení dat [44]... 2 Obrázek 2 Příklad strukturovaných dat (tabulka událostí systému Windows)... 3 Obrázek 3 Doporučené velikosti korpusů dle témat a složení korpusu SYN21 [21, 22]... 5 Obrázek 4 Možný postup přípravy dat... 6 Obrázek 5 Vector space model vyjádření tří dokumentů ABC Obrázek 6 Ukázka zpracování článku přílohy č. 2 pomocí online služby LemmaGen [33]. 17 Obrázek 7 Ukázka nadřazených termů (generalizace) Obrázek 8 Redukované matice [6] Obrázek 9 Závislost výskytu termů v korpusu na TF-IDF... 3 Obrázek 1 Grafová analýza LexRank článku přílohy č.2 [32] Obrázek 11 Příklad 2D cluster mapy a dendrogramu [41] Obrázek 12 Příklad řádkového a sloupcového dendrogramu [41] Obrázek 13 Zobrazení objektů v rovině [13] Obrázek 14 Dendrogram po prvním kroku rozkladu matice D Obrázek 15 Dendrogram po druhém kroku rozkladu matice D Obrázek 16 Dendrogram rozkladu na shluky Obrázek 17 Příklad detekce podvodných objednávek pomocí shlukové analýzy Obrázek 18 Příklad pravidel ohodnocení sledovaných příznaků [25] Obrázek 19 Podobnost dokumentů [23]... 5 Obrázek 2 Reprezentace výsledků indexace [2] Obrázek 21 Ukázka aplikace Online summarize tool [42] Obrázek 22 Načtení textových dokumentů [Statistica CZ v.12] Obrázek 23 Předzpracování dokumentů [Statistica CZ v.12] Obrázek 24 Kombinace podobných slov [Statistica CZ v.12] Obrázek 25 Ukázka funkcí programu [Statistica CZ v.12] Obrázek 26 Ukázka funkce projektu Theses.cz [38] Obrázek 27 Zpráva o podobnosti ze systému Odevzdej... 58

10 Seznam tabulek Tabulka 1 Vyjádření výskytu jednotlivých slov v dokumentech... 9 Tabulka 2 Vyjádření důležitosti termů Tabulka 3 Ukázka báze dat pro algoritmus Brute Force Tabulka 4 Příklad slovníku synonym (synonymických řad) Tabulka 5 Vyjádření vah termů dokumentu B pro indexaci... 3 Tabulka 6 Matice podobnosti 3 vět článku přílohy č Tabulka 7 Frekvenční výskyt slov v dokumentu a napříč korpusem... 38

11 1 Úvod Za data lze ve světě IT považovat veškeré informace v digitální podobě. Podle jejich způsobu uložení se dělí na několik základních typů strukturovaná (například databáze), semi-strukturovaná (soubory typu XML, XLS, ) a nestrukturovaná (například textové dokumenty). A právě nestrukturovaná data jsou, vzhledem k jejich formátu, pro počítačové zpracování nejsložitější. Obecným důvodem pro analýzu dat je potencionální možnost využití nevyčíslitelného kvanta dat, uloženého v různých systémech a různých formách. Největším uložištěm dat je v dnešní době Internetová síť, kde se data nacházejí v různých podobách. V elektronických systémech je dle studie firmy IBM The toxic terabytes - více než 8% dat v multimediálních souborech [19, 44]. Podle odborníka na zpracování dat Billa Jensena se množství informací zdvojnásobuje po každých 11 dnech, tedy zhruba po třech letech. Nicméně čas, který je k dispozici ke zpracování tohoto narůstajícího objemu informací, je stále stejný: 144 minut denně [9]. Tento výrok však dle přední mezinárodní analytické společnosti IDC platí již jen z poloviny. Množství dat se tedy dle IDC zdvojnásobuje přinejmenším za polovinu Jensenem uvedeného času. Odvážnější tvrzení přinesla společnost IBM, ve výše zmíněné studii, že se data zdvojnásobují každých 11 hodin. Z těchto jmenovaných materiálů jasně vyplývá, že dat přibývá závratnou rychlostí, což má za následek neustálé zvyšování požadavků na kapacitu datových uložišť a hlavně na správu těchto dat. S nárůstem objemu dat přichází problém v jejich následném využití data jsou sice k dispozici, ale najít a využít relevantní informace, klade stále větší nároky na čas a výpočetní výkon. Z tohoto důvodu se rozvíjí obor analýzy dat a dolování v datech. Tyto dva pojmy neznamenají totéž, jak bude patrné z následujících kapitol. Obrovský nárůst objemu dat je přímo úměrný snaze získání relevantních informací v nich uložených. Informace jsou uloženy v datech a ta jsou ztracena v databázích [2]. Cílem práce je přiblížit problematiku analýzy nestrukturovaných dat se zaměřeným na textové dokumenty. Na příkladech ukázat způsob reprezentace dokumentů a následně na nich aplikovat metody data-minigu

12 2 Rozdělení dat Data můžeme dělit dle různých aspektů. Podle jejich tematického zaměření, formátu (audio, video, text, www,...), objemu dat a podobně. K tomu abychom mohli data takto třídit či vyhledávat, musí být uložena v adekvátní podobě. Dle způsobu uložení dat dělíme data na strukturovaná, semi-strukturovaná a nestrukturovaná. Následující diagram znázorňuje rozdělení a strukturu jednotlivých typů dat [44]. Obrázek 1 Rozdělení dat [44] 2.1 Strukturovaná data Jsou to data ukládaná do přesně specifikovaných struktur, jako jsou například databáze, formuláře či jiné dokumenty s pevnou strukturou. Tento způsob uložení umožňuje provádět nad těmito daty velké množství operací, které usnadňují manipulaci. Oproti nestrukturovaným datům jsou však tato data převážně bez smyslu plného kontextu. Postrádají informační souvislosti a jazyková zabarvení

13 Obrázek 2 Příklad strukturovaných dat (tabulka událostí systému Windows) Pro samotnou analýzu a následné dolovaní v datech jsou strukturovaná data nejlépe zpracovatelným zdrojem informací, neboť každý jeden datový sloupec obsahuje přesně definované hodnoty. 2.2 Nestrukturovaná data Naproti tomu nestrukturovaná data nejsou ukládána v přesně definovaných jednotných strukturách. Jedná se především o textové dokumenty, audio a video dokumenty, www stránky, prezentace, elektronickou poštu a podobně. Na rozdíl od strukturovaných dat obsahují informace v souvislostech a velkou míru redundance. Vzhledem k výši redundance, nespecifikované struktuře a absenci klíčových slov, je velice složité v těchto datech vyhledávat, respektive vyhledávat relevantní informace ve velkém souboru dat. Vzhledem k objemu nestrukturovaných dat a jeho tempu nárůstu, je stále více kladen důraz na tvorbu algoritmů a systému pro jejich zpracování. 2.3 Semi-strukturovaná data Podle způsobu uložení můžeme data zařadit do skupiny semi-strukturovaná (částečně strukturovaná) data. Ty částečně splňují kritéria pro začlenění do předchozích dvou typů. Jinými slovy vyplňují pomyslný prostor mezi předchozími dvěma typy dat. Netrukturovaná data jsou doplněna například o klíčová slova, metatagy a podobně. O těchto praktikách se stále častěji mluví především v souvislosti se sémantickým webem. Příkladem semistrukturovaných dat mohou být RSS kanály, XML soubory, informace uloženy v tabulkových procesorech (xls, ods a podobně)

14 3 Analýza nestrukturovaných dat Samotná analýza dat spočívá v několika fázích. V prvním kroku je nutné data připravit. Pokud nejsou v digitální podobě, je nezbytné jejich převedení do počítačem zpracovatelné podoby. V případě textových dat, na která je zaměřena tato práce, lze například použít technologie OCR (Optical Character Recognition), ICR (Intelligent Character Recognition) či OMR (Optical Mark Recognition). Po digitalizaci následuje stanovení formy zpracování, zda je požadováno zařadit je dle jejich obsahu (klasifikace dokumentů), shrnout jejich podstatu (sumarizace / indexace), zjistit podobnost vybraných dokumentů, vyhledat v kolekci dle klíčových slov a podobně. Následuje výběr vhodné metody ke zpracování dat a finální fází je vyhodnocení poskytnutých výsledků interpretace získaných informací a jejich aplikace v dalším procesu. Aby bylo možné data analyzovat a odvozovat nějaké závěry, je nutné nejprve vytvořit z podkladových dat jejich počítačem zpracovatelný model. Existuje mnoho technik vytvoření modelu s různými přístupy [5]. Dříve než se začne vytvářet pomyslný obraz nebo model textového dokumentu je nutné požadovaná data připravit. 3.1 Příprava dat Budeme-li uvažovat o analýze dokumentů, je nutné si uvědomit, co s dokumenty chceme dělat. Mezi základními úlohy pro analýzu dat patří porovnání, indexace, sumarizace, klasifikace (kategorizace) dokumentů a další. Mezi pokročilé úlohy bychom mohli zařadit získávání nových znalostí z dokumentů tzv. Data mining [27]. K tomu aby bylo možné s dokumenty pracovat, je nutné mít sestavenou jakousi kolekci dokumentů, nad kterou budou prováděny jednotlivé úlohy. Tato kolekce by měla obsahovat tematicky podobné dokumenty. Takový soubor dokumentů se nazývá korpus a slouží k učení klasifikátorů, odhalení podstatných informací v dokumentu, ke stanovení důležitosti slov (vysvětleno v následujících kapitolách) a podobně [28]. Velikost korpusu je vhodné stanovit jednak na základě počtu slov, ale také na základě počtu dokumentů v souboru. Použitelné tematické korpusy pro stanovení tématu dokumentu jsou podle Českého národního korpusu SYN21 ve velikosti řádově několik milionů slov. Konkrétně zmíněný český národní korpus obsahuje cca 1 milionů slov. Následující obrázek znázorňuje doporučené objemy dat pro vybrané domény (témata) [22, 21]

15 Obrázek 3 Doporučené velikosti korpusů dle témat a složení korpusu SYN21 [21, 22] Vzhledem k velkému objemu dokumentů, který přesahuje schopnost člověka je ručně zpracovávat, je nutné dokumenty převést do struktury, se kterou bude možné vykonávat matematické operace. Jednou z možných struktur, pro takové zpracování, je z hlediska matematického vyjádření Vektor. Segmentací textového dokumentu se rozumí rozdělení dokumentu na základní stavební kameny tzv. Tokeny. Tokeny jsou slova či sousloví, které tvoří jednotlivé složky vektoru. Tato část zpracování dokumentu se nazývá tokenizace či segmentace dokumentu [27]. V následujících kapitolách bude objasněna vhodnost využití sousloví jako jednotlivých složek vektoru, před rozdělením dokumentu na jednotlivá slova. Jedním z důvodu může být uchování správného významu. Především u flektivních jazyků, které díky vlastnostem jako jsou mnohoznačnost, synonyma a podobně, je nutné při zpracování dokumentů porozumět kontextu

16 Obrázek 4 Možný postup přípravy dat V následujících kapitolách bude demonstrována reprezentace textových dokumentů pomocí počítačem zpracovatelných struktur. 3.2 Model vektorového prostoru (Vector space model) Jedním ze základních matematických způsobů pro vyjádření textového dokumentu je model vektorového prostoru. Dokumenty jsou zde reprezentovány jako samostatné vektory, kde každá složka vektoru odpovídá jednomu termu z kolekce dokumentů [27]. Při procesu analýzy dokumentů je nutné vytvořit jeden společný vektor všech porovnávaných dokumentů, který bude obsahovat všechny termy (slova). Parametry (termy) tohoto vektoru je pro přehlednost vhodné seřadit dle abecedy. Na jeho základě jsou pak vytvořeny, dle zvolené metody, vektory jednotlivých porovnávaných dokumentů. Ty mají stejnou dimenzi jako společný vektor. Každý parametr takto vytvořených vektorů reprezentuje přítomnost termu vůči společnému vektoru. Příklad: Pro jednoduchou demonstraci vytvoření společného vektoru dokumentů pomocí vektorového zápisu budeme uvažovat tři dokumenty, kde je pro jednoduchost každý tvořen - 6 -

17 jednou větou [39]: Dokument A: The man walked the dog Dokument B: The man took the dog to the park Dokument C: The dog went to the park Z těchto tří dokumentů je sestrojen společný vektor v k, který obsahuje všechna navzájem různá slova, které se ve výčtu kolekce dokumentů vyskytují. vk = (The, man, walked, dog, took, to, park, went) Následně jsou sestaveny vektory všech ostatních dokumentů vzhledem ke společnému vektoru korpusu. K sestavení vektorů samotných dokumentů se používá několika různých technik. Vzájemná podobnost dokumentů je poté posuzována na základě vzájemné polohy vektorů dokumentů v prostoru. Respektive podle jejich vzdálenosti, velikosti svírajícího úhlu a jiných metrik Binární zápis vektoru V případě reprezentace dokumentů binárním vektorovým zápisem jde o vyjádření přítomnosti jednotlivých termů i n ve společném vektoru dokumentů v k = (i 1, i 2, i 3,, i n ). Vektory dokumentů mají stejnou dimenzi jako společný vektor v k. Logickou hodnotou 1 má parametr t n vektoru dokumentu v A = (t 1, t 2, t 3,..., t n ) v případě, obsahuje-li výčet jeho termů slovo ze společného vektoru v k. V opačném případě nabývá logické hodnoty. =1 Z dokumentů uvedených v předchozí kapitole je tedy nejprve sestaven společný vektor, který obsahuje všechna slova dokumentů v kolekci: vk = (The, man, walked, dog, took, to, park, went) - 7 -

18 Binární zápis dokumentů (uvedených výše) pomocí vektorů bude vypadat vzhledem k vektoru korpusu v k takto: va = ( 1111 ) vb = ( ) vc = ( ) Z vektorů jednotlivých dokumentů je sestavena matice korpusu A, kde sloupce reprezentují vektory dokumentů = Jak je z binárního zápisu vidět, čím více 1 se objeví na pozicích vektoru vybraného dokumentu, tím je vektor dokumentu podobnější vektoru korpusu. Jde však o zkreslující informaci, jejíž podstata spočívá ve ztrátě informace o frekvenci výskytu termů v dokumentech. Pro uvedené nedostatky je vhodné použít tuto metodu do jednoduchých vyhledávačů. Mějme korpus dokumentů, ve kterých chceme vyhledávat, vyjádřen maticí A. Její sloupce reprezentují binární zápisy vektorů jednotlivých dokumentů korpusu (v 1...v n ). Zadaný dotaz D je převeden na nový vektor v d, který má stejnou dimenzi jako společný vektor korpusu v k. Podle metody binárního zápisu jsou stanoveny hodnoty parametrů vektoru dotazu v d a poté je přepočítána podobnost vektoru v d se všemi ostatními vektory v 1...n v matici A. Používanou metrikou pro takový výpočet je například cosinová vzdálenost. = ( ) ( ) Výsledky dotazu jsou pak seřazeny podle relevance, kde nejlepší (první zobrazený) je reprezentován největší hodnotou. Následující metody číselného vyjádření vektoru dokážou uchovat informaci o frekvenci jednotlivých termů. Jde o metody frekvenčních výskytů (TF), které lze dále upravit tak, aby - 8 -

19 zohlednily délku dokumentu a důležitost slov (TF-IDF). V takovém případě se číselnému vyjádření jednotlivých složek vektoru říká váha termu Frekvenční zápis vektoru (TF) Metoda TF (Term Frekvency) oproti zápisu v binární podobě poskytuje cenou informaci v podobě skutečného počtu výskytů daného slova (termu) v dokumentu a tím zdokonaluje vyjádření jeho váhy. Postup metody spočívá opět v sestavení vektoru v k, na jehož základě se sestrojí jednotlivé vektory odpovídající zadaným dokumentům. Parametry jednotlivých vektorů jsou tvořeny číselným vyjádřením frekvence výskytu termu v dokumentu. Původní vektor kolekce: vk = (The, man, walked, dog, took, to, park, went) Pro přehlednost je vhodné opět sestrojit matici dokumentů A. Jednotlivé položky vyjadřují frekvenci výskytů termů obsažených ve v k. Tabulka 1 Vyjádření výskytu jednotlivých slov v dokumentech dokument A dokument B dokument C the man 1 1 walked 1 dog took 1 to 1 1 park 1 1 went 1 Jednotlivé sloupce matice výskytů představují frekvenční vektory posuzovaných dokumentů. Vektory dokumentů tedy vypadají následovně: va = ( 2111 ) vb = ( ) - 9 -

20 vc = ( ) Jak je vidět, jsou zde exponována nepodstatná slova, ačkoli mají nevypovídající, často mizivou hodnotu spojky, předložky a podobně. V případě vzorových 3 částí textů (dokumentů) je nejvíce zvýrazněné slovo The, které určitě není nositelem informací reprezentujících obsah dokumentu. V následujících kapitolách, které se věnují redukci dimenze vektorového prostoru, budou takové termy z výpočtů odstraněny. Metodu TF je vhodné normalizovat s ohledem na váhu jednotlivých termů, například použitím Euklidovské normy a převodu na jednotkový vektor. " # " =( #, # ) % # =& # " # " Takovému vyjádření se říká normovaný frekvenční zápis [36]. Tento způsob je vhodné využít pro případ významně rozdílných velikostí posuzovaných dokumentů. Výpočet euklidovské normy pro jednotlivé vektory dokumentů: =) = 7. =) = 14 1 =) = 8 ' Přepočet na jednotkové vektory: % =3 2 7, 1 7, 1 7, 1 7,,,,4=(.76,.38,.38,.38,,,,) %. =3 3 14, 1 14,, 1 14, 1 14, 1 14, 1 % 1 =3 2 8,,, 1 8,, 1 8, 1 8, 1 14,4=(.8,.27,,.27,.27,.27,.27,) 8 4=(.71,,,.35,,.35,.35,.35) Výsledná matice Â, s vyjádřením vah termů, je zkonstruována transponováním normovaných (jednotkových) vektorů

21 2 1 1 = ,76,38,38 7 =,38,8,27,27,27,27,27,71,35,35,35,35 Sloupce matice  představují normované vektory původních dokumentů, kde je zohledněna jak délka dokumentu, tak počet výskytu jednotlivých termů Frekvenční zápis vektoru s vyjádřením důležitosti slova (TF-IDF) Metoda TF-IDF (Term Frequency - Inverse Document Frequency) je modifikací frekvenční metody, která využívá ke stanovení důležitosti slova pokročilejší metodu inverzního vektoru. Základem je výpočet dvou vektorů tf a idf, které udávají výslednou polohu vektorů v prostoru. TF-IDF zajišťuje zohlednění nejen počtu výskytů daného termu v dokumentu, ale bere v úvahu také délky porovnávaných dokumentů a důležitost jednotlivých termů (slov). Vektor idf představuje již zmíněnou důležitost slova. Vychází z úvahy, že čím častěji se slovo v dokumentu vyskytuje, tím méně je důležité. Typickým příkladem jsou slovní druhy, které budou v následujících kapitolách popsány jako Stop-slova. Matematicky lze závislost mezi počtem výskytů slova a jeho důležitostí vyjádřit jako podíl logaritmu počtu porovnávaných dokumentů D a počtu dokumentů j, ve kterých je slovo obsaženo. Důležitost slova je tedy počítána dle následujícího vzorce: 89 =log ( = > ) Výpočet vektoru idf ze zadaných frekvenčních vektorů tf: tfa = ( 2111 ) tfb = ( ) tfc = ( ) 89 =(DE 3 3,DE3 2,DE3 1,DE3 3,DE3 1,DE3 2,DE3 2,DE3 1 )

22 idf = (,18,18,48,18,18,48 ) Dalším krokem pro vyčíslení výsledného vektoru je součin idf s jednotlivými vektory tf. Vypočtené hodnoty parametrů vektorů, vyjadřují význam slov v dokumentu. Tabulka 2 Vyjádření důležitosti termů the man walked dog took to park went tfa * idf,18,18 tfb * idf,18,48,18,18 tfc * idf,18,18,48 Z výsledného součinu je patrné, že termíny, které se vyskytují ve všech dokumentech, mají nízkou váhu (blížící se nule) a termíny, které se objevují pouze v některých dokumentech, mají váhu vyšší. Budeme-li pro jednoduchost uvažovat 3 dokumenty zobrazené ve dvou-rozměrném prostoru, pak lze graficky znázornit dokumenty následujícím způsobem. Obrázek 5 Vector space model vyjádření tří dokumentů ABC Míru podobnosti dokumentů lze měřit pomocí úhlu Theta, který mezi sebou vektory svírají. Čím menší úhel mezi sebou vektory svírají, tím jsou si podobnější. Z předchozího obrázku je vidět, že dokument B je podobnější C nežli A. Často používanou metrikou, je cosinova míra podobnosti. Ta nabývá hodnot od do 1. Čím vyšší je její hodnota, tím podobnější jsou

23 si vektory [39, 44]. H8IJ =cos()= N ǁAǁ ǁBǁ = P I ) (I ) ) (P ) Dříve se využívalo k porovnání podobnosti dokumentů vyjádření pomocí vzdálenosti vektorů (euklidovská vzdálenost). Tato metoda však není vhodná především z důvodu neschopnosti reagovat na velikost porovnávaných dokumentů. V případě duplikace všech slov v dokumentu B by mělo za následek dvojnásobné zvětšení jeho vektoru, čímž by se značně zmenšila podobnost s dokumentem C, ačkoliv by se obsahově dokument B nezměnil [44]. Aritmetické vyjádření vektorů je vcelku snadné, nicméně jako problém se jeví počet složek vektorů, který zároveň reprezentuje počet dimenzí prostoru. Tento problém byl popsán jako Curse of dimensionality (dimenzionální prokletí). Výsledný model je tedy situován v n-dimenzionálním prostoru, kde n udává celkový počet unikátních slov všech dokumentů, které jsou porovnávány. Celková dimenze tedy exponenciálně roste v závislosti na počtu dokumentů potažmo jejich slov [18, 44]. Uvedené vektorové zápisy jsou však náročné nejen výpočetně, ale také časově. Při použití skutečných dokumentů a rozsáhlých korpusů, které mohou obsahovat více 1 8 termů (viz. SYN21), by bylo jejich zpracování nesmírně náročné. Z tohoto důvodu je nutné dimenze vektorů snížit. 3.3 Redukce dimenze Následující kapitoly budou věnovány úkolu, jak snížit dimenzi při zachování podstatných informací. Z hlediska porovnání vektorů v prostoru vyplývá, čím nižší je dimenze, tím snažší je matematické vyjádření závislostí. Totéž již nelze říci o zachování informačních hodnot dokumentů. Je nutné stanovit takovou velikost dimenze, která ještě zachová obsah a zároveň maximálně sníží počet parametrů vektoru. Redukce dimenze lze provádět několika způsoby. Mezi nejčastěji využívané patří pos-tagging (odstranění stop-slov), sloučení termů na základě lemmatizace, stemmizace, sloučení synonym a další

24 3.3.1 Odstranění Stop-slov / Pos-tagging Jedná se o nejjednodušší metodu přístupu k redukci dimenze vektorového prostoru. Spočívá ve vynechání nepodstatných slovních druhů, které nejsou nositeli stěžejních informací. Jinými slovy jde o termy, které mají minimální nebo nulovou informační hodnotu. S trochou nadsázky by se tato slova dala nazvat jakousi formou informační redundance. Typickým příkladem Stop-slov jsou převážně slovní druhy spojky, předložky, částice a citoslovce. Po jejich odstranění značně klesne dimenze vektoru, reprezentujícího textový dokument. Naopak mezi nositele informací se řadí slovní druhy jako podstatná jména, přídavná jména, slovesa a příslovce. Redukce vektorového prostou touto metodou nevyužívá znalostí o konstrukci jazyka. Nedokáže ani určit, zda informace vyjádřené v číslovkách jsou podstatné či nikoliv. Z toho důvodu některé přístupy převádějí číselnou informaci do textové podoby, jiné odstraňují řadové číslovky a zachovávají konkrétní číselné hodnoty a podobně. Jeden z možných průběhů metody: 1) převedení všech termů dokumentu do lemmatizované podoby; 2) porovnání termů se souborem stop-slov a odstranění nalezených shod. Původní dokument: Softwarový strašák na studenty, kteří chtěli opsat závěrečnou práci z internetu, se stane noční můrou i pro akademiky. Informatici z brněnské Masarykovy univerzity totiž rozšířili svůj systém porovnávající texty a odhalující podobnosti i na odborné články, publikace a jiná díla. [45] Možný vzhled dokumentu po lemmatizaci a odstranění Stop-slov: Software strašák student chtít opsat závěr práce internet stát noc můra akademik. Informatik Brno Masaryk univerzita rozšířit systém porovnat text odhalit podobnost odborný článek publikace dílo. Velikost původního dokumentu je 4 termů a po úpravě jen 26 termů. Na výše uvedeném příkladu je vidět, účinnost metody vzhledem ke snížení velikosti dimenze vektorů dokumentů

25 Seznam nejčastějších českých stop-slov je uveden v příloze č. 1 této práce Lemmatizace Při procesu lemmatizace je hledán základní neboli normalizovaný tvar daného slova tzv. Lemma. Za normalizovaný stav je považován u podstatných jmen první pád jednotného čísla, u přídavných jmen první pád jednotného čísla základního stupně mužského rodu, u sloves jde o tvar slova v infinitivu a podobně [1]. Algoritmů pro lemmatizaci je celá řada. Dají se rozdělit do dvou základních skupin a to vyhledávací nad bází dat nebo algoritmy využívající pravidla o znalosti jazyka. U strojového zpracování je vhodnější využít pro lemmatizaci algoritmů, které využívají větší znalosti o struktuře jazyka. Ty pak mají za úkol najít termy o stejném základu a v porovnání s ostatními identifikovanými termy odstranit přípony, předpony, či jiné možné koncovky slov, které jsou způsobeny jejich ohebností. Takové algoritmy se nazývají Suffix Stripping [37] Brute Force algoritmus Tento algoritmus patří mezi skupinu prohledávacích, přičemž není využito znalosti konstrukce jazyka. Tento algoritmus je založen na principu hrubé síly. Každý term dokumentu je porovnán s obsáhlou bází dat, ve které jsou uloženy základní tvary slov a jejich jazykové modifikace. Již z tohoto pohledu je tento algoritmus velice časově a výpočetně náročný. Zároveň vyžaduje dostupnost velice obsáhlé báze dat, která je vytvořena znalcem. Tabulka 3 Ukázka báze dat pro algoritmus Brute Force term dokumentu byl byla bylo byli bude lemma být být být být být

26 U strojového zpracování pomocí takového lemmatizátoru existuje však problém zvaný víceznačnost (mnohoznačnost). Jednoduché lemmatizátory, které nezkoumají kontext, nemusí správně posoudit význam slova, které normalizují. Tím může dojít k nalezení špatného normalizovaného tvaru (lemma). Příkladem lze uvést slovo tancích, které může mít normalizovaný tvar tanec nebo tank. Původní text: Jeden z nejhodnotnějších zdrojů o maďarských tancích. Lemmatizovaný text: Jedna/Jíst z hodnotný zdroj o maďarský tanec/tank. Tento příklad demonstruje nejčastější chyby lemmatizátorů, založených na principu Brute-force. Tyto chyby mohou být stěžejní pro následující zpracování a analýzu dokumentu například při jejich klasifikaci. Při vyšší koncentraci takovýchto chyb by mohlo dojít k nesprávnému zařazení dokumentu do třídy obrněná vozidla, místo do třídy umění Lovinsův algoritmus Jedná se o algoritmus pracující se znalostními pravidly Suffix Stripping. Vyžaduje již podrobné znalosti o stavbě jazyka. Pomocí nich se snaží najít lemma pomocí odstranění přípon. Algoritmus vychází ze dvou principů Iteration a Longest-match. Princip Iterace pracuje s příponami postupně. Je stanoveno několik skupin neboli tříd přípon, které se odstraňují postupně. 1. třída přípon obsahuje dále již nerozšiřující přípony - koncovky. Například termy silní x silná x silné mají koncovky první třídy: í, á, é, ale stejné lemma siln. Do této třídy patří také víceznakové koncovky, například u termů vyšší, prudší - ší. 2. třídu tvoří přípony, které ve skladbě slova předcházejí 1.třídu přípon. Příkladem mohou být termy silnější x rychlejší. Lemma slov tvoří siln a rychl, 2.třídu přípony ěj, ej a 1.třídu přípony ší. V konečném důsledku tyto třídy dohromady tvoří různé tvary slov (například siln-ěj-ší). Princip iterace tedy postupně odstraňuje přípony podle priority tříd, nejprve 1. třídu, 2. třídu a tak dále. Tímto postupem je získáno Lemma

27 Přístup Longest-match pracuje na principu nalezení nejdelší známé přípony a tu odstraní. Například tedy u termu silnější odstraní rovnou celou příponu ější. Oba zmíněné přístupy vyžadují rozsáhlou bázi dat, která obsahuje známé přípony případně jejich kombinace. Uvedené algoritmy jsou využívány v automatických generátorech lemmatizovaných textů. Příkladem aplikace lemmatizátoru suffix-stripping je generátor LemmaGen či AIKA. Obrázek 6 Ukázka zpracování článku přílohy č. 2 pomocí online služby LemmaGen [33] Lemmatizace je jedním ze základních způsobů snížení dimenze u vektorového vyjádření textového dokumentu. Využívá se také při fulltextovém vyhledávání, kategorizaci (klasifikaci), indexaci dokumentů a podobně. Následující příklad demonstruje rozdílné výsledky lemmatizace pomocí Brute force a Lovinsova algoritmu. Lemmatizována byla první věta z článku přílohy č. 2, této práce. Původní text: Softwarový strašák na studenty, kteří by chtěli opsat svou závěrečnou práci z internetu, se stane noční můrou i pro akademiky. [45] Lemmatizovaný text pomocí Brute force algoritmu: Software strašák na student, který by chtít opsat své závěr práce z internet, se stát noc můra i pro akademik. Lemmatizovaný text pomocí sufix-stripping algoritmu: Softwar strašák na student, kte by cht sv závěrečn prác z internet, s stan nočn můr i pro akademik

28 3.3.3 Stemming Stemming je podobný procesu lemmatizace až na skutečnost, že se v tomto případě nehledá normalizovaná forma, nýbrž kořen (stem) slova. Výhodou stemmingu oproti lemmatizaci je větší snížení dimenze vektoru reprezentujícího textový dokument, nevýhodou je nutnost existence široké databáze slov s jejich kořeny Brute-force algoritmy. Příklad: termy vodárna, vodovod, vodník, zavodnit, odvodnit, voda, společný kořen slova je vod. Stemming si snadno poradí s morfologickými koncovkami, předponami, odvozenými slovy a podobně. Jak je vidět, je mnohem efektivnější nežli lemmatizace při redukci dimenzí, ale nese sebou závažný problém. Tím jsou slova, která nemají společný význam, ale mají stejný kořen slova. Příkladem může být slovo lední jehož kořenem slova je led, avšak pro slovo leda je taktéž kořen slova led. Toto je problém zejména flektivních jazyků, jako je čeština. Stemming se proto s výhodou používá například pro anglický jazyk, ale pro flektivní (ohebné) jazyky je vhodné použít spíše Lemmatizaci. Ani jedna varianta ať už lemmatizace či stemming si však neumí poradit se slovy, která mají více významů. Pro ilustraci slovo pánev má význam v oblasti geografického útvaru, části těla či nádobí. V takovém případě by se dimenze tedy snížila o slova, která nemají významově nic společného. Tyto popsané problémy umí řešit až vyšší metody sémantických analýz, kterou je například LSA (Latent Semantic Analysis) Očištění od synonym Předchozí metody redukce dimenze vektorového prostoru již dokázaly vynechat Stop-slova či sloučit termy, které byli v různých jazykových tvarech (ohebnost slov). Tato metoda přináší další možnost redukce vektorového prostoru postavenou především na bázi identifikovaných synonym. Pro takovéto procesy existují lexikální databáze například WordNet [1]. Jde o databázi seskupující jednotlivá slova v synonymických řadách tzv. synsetech. Českou variantu WordNetu je Český WordNet, který vyvíjí Centrum zpracování přirozeného jazyka na Fakultě informatiky Masarykovy univerzity v Brně

29 Tabulka 4 Příklad slovníku synonym (synonymických řad) Slovo synonymum 1 synonymum 2... počítač PC computer... řeka potok bystřina... automobil vozidlo auto... labyrint bludiště babylon Na základě takového slovníku jsou termy identifikované jako synonyma nahrazeny jedním prvotním výrazem. V případě potřeby, co největší redukce dimenze je možné využít variantu zobecnění významu termů. Jde o nahrazení slova jejím nadřazeným slovem. Jde o zpětnou generalizaci slov. Obrázek 7 Ukázka nadřazených termů (generalizace) Při použití této metody však dochází k velkému zobecnění samotného dokumentu. Proto tento způsob omezení dimenze vektorů je vhodný spíše pro klasifikaci dokumentů Výběr příznaků - feature selection Výše zmíněný problém Curse of dimensionality je možné řešit metodou výběru příznaků. Tato metoda vychází z poznatku, že k popsání dokumentu není třeba všech složek vektoru, ale postačí pouze klíčové termy. Metoda výběru příznaků se zabývá vyhledáváním takových termů, které mají dostatečnou vypovídající hodnotu pro daný textový dokument [8]. Před samotným výběrem příznaků je vhodné použít předchozí metody redukce dimenze

30 Zvláště důležité je odstranění stop-slov či lemmatizace. Stemmingu či nahrazení nadřazenými termy není vhodný především z důvodu, následné absence původních termů ve výsledném vektoru. Selekce příznaků je tedy výběr vhodných parametrů původního vektoru. V žádném případě neplatí, že čím více příznaků bude vybráno, tím lépe. Při zvolené velké dimenzi tzv. vektoru příznaků, se zvyšuje pravděpodobnost špatné klasifikace dokumentu (začlenění do nevhodných tematických okruhů). Zároveň, se vzrůstajícím počtem parametrů vektoru příznaků, se zvyšuje výpočetní a časová náročnost dalšího zpracování dokumentů. Nízká dimenze naopak nemusí mít vypovídající hodnotu o daném souboru. Po prvotní redukci dimenze pomocí vypuštění stop-slov, lemmatizace a podobně, se pro další zpracování používají sofistikovanější metody statistických funkcí, jako je například relativní četnost (normovaný frekvenční výskyt). U selekce příznaků platí, že vytvořená množina parametrů vektoru, je podmnožinou základního vektoru. Jinými slovy žádný term není nahrazen jiným, což by bylo v případě stemmingu porušeno. Dochází tak k zachování podobnosti s původním dokumentem, což může být nezbytné například v případě analýzy dokumentů při hledání duplikátů, plagiátů a podobně [8, 4]. Pro výběr příznaků je vhodné použít metodu uvedenou v předchozích kapitolách, například frekvenční výskyt s posouzením důležitosti slov, neboli TF-IDF Extrakce příznaků feature extraction Metoda extrakce příznaků je založená na jazykové znalosti, kdy jsou jednotlivé termy nahrazovány nadřazenými výrazy a to buď pomocí stemmingu, nebo na základě generalizace slov. Jejím cílem je ještě větší snížení dimenze vektoru oproti metodám Výběru příznaků. Metody extrakce příznaků si navíc dokážou poradit se slovy souzvučnými (synonymy). Jako příklad lze uvést synonymickou řadu statečný, smělý, udatný, heroický, kde jsou tato slova nahrazena prvním termem z řady. V mnoha případech se v dokumentech mohou vyskytovat nedělitelné sousloví, tzv. ngramy, kde n značí počet termů. Ty je vhodné zpracovávat jako celek, neboť tak udávají komplexní informaci. Příkladem mohou být víceslovné názvy měst, organizací a podobně (Univerzita Hradec Králové, Autorský zákon, atd.)

31 3.3.7 Extrakce frází Jak již bylo výše řečeno, vektorový zápis textového dokumentu je složen z termů. Ty mohou být tvořeny 1 až n slovy (n-gramy) v závislosti na následujícím účelu zpracování dokumentu. Jednotlivé N-gramy se extrahují po předzpracování textového dokumentu vynecháním stop-slov, provedené lemmatizaci či stemmingu. Dvouslovné fráze se nazývají bigramy, trojslovné trigramy a víceslovné N-gramy. Čím víceslovné jsou termy vybírány, tím menší je pravděpodobnost nalezení takového N- gramu v jiném dokumentů. Tato vlastnost lze s výhodou uplatnit u detekce plagiátů, kde platí, čím více je nalezeno stejných n-gramů, tím větší je pravděpodobnost plagiátorství [35] Mi-score (mutual Information) Mi-score je metoda extrakce parametrů založená na statistických funkcích. Z názvu je patrné, že se jedná o posouzení vzájemné informace, která je definována pro jevy x a y následujícím matematickým vyjádřením [4, 33]. Q(R,S)=DE T(R, S) T(R) T(S) Kde P(x) je pravděpodobnost výskytu slova x, P(y) je pravděpodobnost výskytu slova y a P(x,y) je potom pravděpodobnost výskytu slova y v kontextu x. Kontext x značí zadaný počet pozic od posuzovaného slova na obě strany. T(R)= 9(R) U T(S)= 9(S) U T(R,S)= 9(R,S) U Kde f(x) a f(y) jsou počty samostatných výskytů posuzovaných slov a f(x,y) je počet společných výskytů těchto slov. Z hlediska pravděpodobnosti výskytu jednotlivých slov je N celkový počet slov v korpusu dokumentů. Nevýhodou této metody je vysoká závislost na frekvenci slov v dokumentu. Nejvyšších hodnot totiž dosahují dvojice slov s nízkou frekvencí. Z tohoto důvodu je vhodné vypustit slova s absolutní frekvencí nižší než je předem zvolená hranice. Ta je závislá na počtu požadovaných příznaků [3, 33]

32 Příklad: Pro názornou demonstraci a jednoduchost výpočtu byl vybrán upravený výňatek článku z přílohy č. 2 Nový systém odhalí plagiátorství mezi vědci. Kontext budeme uvažovat 1, čili nejbližší soused slova. Výpočet Mi-score bude demonstrován pro term Open a jeho nejbližší sousedy ( hnutí a Access ). Původní text: Repozitar.cz umožní také zpřístupnit výsledky vědy širší veřejnosti při zachování vůle autorů. K tzv. Open Access k vědeckým informacím, který prosazuje hnutí Open Access, se MU přihlásila loni v říjnu podpisem Berlínské deklarace. Informatici MU již proto také vytvořili vlastní univerzitní repozitář, který rozšiřuje stávající systém evidence publikací Lemmatizovaný text s vypuštěnými stop-slovy: Repozitar.cz umožnit zpřístupnit výsledek věda široká veřejnost zachovat vůle autor Open Access vědecký informace prosazovat hnutí Open Access MU hlásit loni říjen podpis Berlín deklarace Informatik MU tvořit univerzita repozitář rozšiřovat systém evidence publikace. Pro každé slovo je spočítána pravděpodobnost jeho výskytu: pravděpodobnost výskytu slova Open: pravděpodobnost výskytu slova Access: pravděpodobnost výskytu slova Access: T(HVJ)= W(XYZ) [ T(PV)= W(_``Zaa) [ T(hJcí)= W(efgí) [ = \] =,59 = \] =,59 = \] =,29 pravděpodobnost společného výskytu slov hutí, open a access v kontextu 1: T(HVJ,PV)= W(XYZ, _``Zaa) [ = \] =,59 T(HVJ,hJcí)= W(XYZ, efgí) [ = \] =,29 Výsledné mi-score termů je vyjádřeno takto: Q(HVJ,PV)=DE T(HVJ, PV) T(HVJ) T(PV) =DE,59,59,59 =4,

33 Q(HVJ,hJcí)=DE T(HVJ, hjcí) T(HVJ) T(PV) =DE,29,59,29 =4,138 Mi-score lze vypočítat také pomocí vzorce, který využívá na místo pravděpodobnosti výskytu frekvenční výskyt slov: Q(R,S)=DE U 9(R,S) 9(R) 9(S) T(HVJ,PV)= DE U 9(HVJ, PV) 9(HVJ) 9(PV) =DE =4,87 Nevýhodou této metody je značná závislost na samotné frekvenci jednotlivých slov (bez společného výskytu). Z tohoto důvodu dosahují nejvyššího mi-score slova s nízkou frekvencí. Některé algoritmy umožňují z tohoto důvodu nastavit spodní prahovou hodnotu frekvenčního výskytu slov. Pro termy, které nesplní toto kriterium, není mi-score počítáno [34] T-score Jedná se o metodu, která na rozdíl od předchozího mi-score, zkoumá náhodnost jevů. Jinými slovy testuje, zda frekvence termů a jejich společného výskytu odpovídá náhodnému rozložení termů v korpusu. Čím vyšší je hodnota t-score, tím pravděpodobnější je správná identifikace sousloví. Takové lze označit za kolokaci (kombinace slov) [34]. h = 9(R,S) 9(R) 9(S) U )9(R, S) Kde f(x) a f(y) jsou frekvence výskytů jednotlivých slov, f(x,y) frekvence společného výskytu a N je celkový počet termů v dokumentu. Příklad: Pro výpočet t-score vezmeme příklad z předchozí kapitoly. h(hvj,pv)= 9(R,S) 9(R) 9(S) U )9(R, S) = = 1,88 1,41 =1,

34 h(hvj,hjcí)= 9(R,S) 9(R) 9(S) U )9(R, S) = = 1,88 1,41 =, Latentní sémantická analýza (LSA) Tato metoda, jak již název naznačuje, dokáže pracovat s významovou složkou slov. Pro stanovení dimenzí již nejsou důležitá slova ani jejich lingvistický základ, nýbrž jejich tematické zaměření. LSA v tomto smyslu zavádí nový pojem a tím je koncept (draft). Koncept představuje doménu neboli nadřazený termín slov [12, 39]. Koncepty jsou stanoveny na základě kolokací. Jako příklad lze uvést termy z kapitoly č Dokument A: The man walked the dog. Dokument B: The man took the dog to the park. Kde je slovo man spojeno v dokumentu A se slovem walked. V dokumentu B se slovem took. Stejná vazba platí, pokud vezmeme místo slova man slovo dog. Z tohoto vyplývá, že slova walked a took mohou nést stejný informační význam. Ve výsledku budou tedy slova walked a took tvořit jeden koncept (draft). Vazby mezi takovými termy se nazývají kolokace. Před samotným rozkladem je vhodné provést redukci dimenze vektorového prostoru pomocí lemmatizace a odstranění stop-slov, především z důvodu časové a výpočet náročnosti následných výpočtů. Věty dokumentů jsou reprezentovány normalizovanými vektory. Z nich je sestavena matice A o velikosti m x n, kde sloupce (n) reprezentují vektory jednotlivých vět a řádky (m) pak samotná slova. Po sestavení matice A je třeba nalézt výše zmíněné kolokace a z nich vyplývající koncepty. Tím se opět sníží dimenze vektorového prostoru. Samotná redukce probíhá pomocí metody Singular value decomposition (SVD) Singular value decomposition (SVD) Singular value decomposition je metoda redukce dimenze prostoru, vyhledávající kolokace mezi jednotlivými termy. Při jejich nalezení sjednotí termy do jednoho konceptu

35 a tím sníží dimenzi prostoru. Pro většinu případů posuzovaných dokumentů je 1 postačující hodnota počtu konceptů [12]. Stanovení počtu konceptů však závisí na účelu využití LSA. Pro indexaci dokumentu bude požadován vyšší počet nežli při využití pro vyhledávání plagiátů a podobně. SVD vychází z dekompozice matice dokumentu. Matici A rozkládá SVD na tři další matice ortogonální U, diagonální Σ a transponovanou ortogonální V T. Matice U je velikosti mxm. Její sloupce jsou nazývány levé singulární vektory. Termy jsou zde reprezentovány řádkovými vektory, které tvoří lineárně nezávislé komponenty. Společný výskyt termů je vyjádřen pomocí znaménka +/-. Σ je matice velikosti m x n, kde prvky hlavní diagonály reprezentují singulární hodnoty. Ty vyjadřují závislost jednotlivých termů. Matice V T je řádkově ortonormální o velikosti k x k, kde k je počet nenulových prvků hlavní diagonály matice Σ. Sloupce matice V T reprezentují singulární vektory vět. Z těchto matic je pomocí počtu nenulových prvků hlavní diagonály matice Σ stanovena redukovaná dimenze prostoru k. Tímto se značně sníží časová náročnost dalších výpočtů, jak je vidět na následujícím obrázku. Dimenzi je možné ještě snížit, pokud je požadovaný počet hledaných termů nižší než počet nenulových prvků hlavní diagonály. Obrázek 8 Redukované matice [6] Příklad: Pro sestrojení matice A bude z důvodu přehlednosti použit příklad z kapitoly 3.2. v 1 : The man walked the dog v 2 : The man took the dog to the park

36 v 3 : The dog went to the park Sestavení společného vektoru v k (abecedně seřazený bez stop-slov): vk = (The, man, walked, dog, took, to, park, went) Vyjádření matice dokumentu A a normované matice Â: = ,76,38,38 7 =,38,8,27,27,27,27,27,71,35,35,35,35 Matice A (Â) je zpravidla řídká matice, jelikož se slova (reprezentující řádky) v každé větě neopakují. V případě analýzy skutečného dokumentu by bylo zastoupení nulových hodnot v jednotlivých sloupcích, které reprezentují věty dokumentu, mnohem vyšší. Samotný postup rozkladu matice pomocí SVD není předmětem této práce, proto bylo pro výpočet ukázkového rozkladu matice A na matice U, Σ a V T využito aplikace Maple. Použité příkazy programu Maple: - zadání normované matice Â: - pro výpočet singulárního rozkladu matic SVD je nutné využít balíček MTM, který obsahuje funkce pro jeho výpočet, volá se následujícím příkazem: - výpočet rozkladu na jednotlivé matice:

37 Výsledky SVD rozkladu: Řádky matice U reprezentují vektory jednotlivých termů a vyjadřují jejich lineární nezávislost. Společné výskyty slov ve větách jsou vyjádřeny zápornými hodnotami. První sloupec, kde jsou samé záporné hodnoty, vyjadřuje základní společný výskyt termů v dokumentu. Ve druhém sloupci jsou vidět dvě skupiny slov. Společně se vyskytující jsou took, to, park a went. V další dimenzi se spolu vyskytují termy walked, dog, went, a tak dále. Slova, která jsou si blízká významem, nebo jde o synonyma, budou v m-dimenzionálním prostoru mapována blízko sebe vytvoří shluk. Kombinace slov, která se vyskytuje v dokumentu často, je reprezentována jedním singulárním vektorem z V T. Singulární hodnota z Σ, indikuje významnost kombinace slov v dokumentu. Věta, která obsahuje tuto kombinaci termů, bude promítnuta blízko k odpovídajícímu singulárnímu vektoru z matice V T. Singulární vektory tedy reprezentují koncepty dokumentu a singulární čísla jejich významnost [6]. Pro demonstraci redukce dimenze upravíme matice dle singulárních hodnot v Σ. Odstraní se odpovídající vektory z U a získáme následující redukované matice:

38 Odstraněním prvků reprezentujících dimenze, které nevykazují významnou změnu, je efektivně eliminován šum z vektorů slov. Nyní jsou dimenze 3 na rozdíl od původních 8. Vektory slov nyní obsahují ty nejvýznamnější závislosti mezi slovy. Zjednoduší se tím výpočty podobnosti vektorů, vět či dokumentů při další analýze. LSA lze využít například při sumarizaci dokumentu, kdy se vypočítá matice B. Její sloupce reprezentují věty, respektive vektory vět. Velikost vektoru vyjadřuje jeho váhu (ohodnocení). Do sumarizace se začlení ty věty, které dosáhnou největší váhy. N =j k l =)(N ) +(N ) + +(N ' ) 4 Úlohy pro analýzu textu Data mining Tato kapitola má za úkol přiblížit, k jakému účelu lze metody analýzy textových dokumentů v praktických úlohách využít. Tuto otázku řeší soubor metod nazývaný Data-minig. Definice: Data-mining lze charakterizovat jako proces extrakce relevantních, předem neznámých nebo nedefinovaných informací z velmi rozsáhlých databází. Nicméně data mining lze aplikovat i na malé soubory. Důležitou vlastností data miningu, je že se jedná o analýzy odvozované z obsahu dat, nikoliv předem specifikované uživatelem nebo implementátorem. Jedná se především o odvozování prediktivních (předpovídaných) informací, nikoliv deskriptivních (popisných). To znamená, že proces data miningu lze definovat jako netriviální získávání implicitních, dříve neznámých a potenciálně užitečných informací. [15]

39 Jak je z předchozí definice patrné, jde především o zjištění skutečností, závislostí či relevantních informací, které nejsou na první pohled uživateli (manažerům) známy. S nasazením metodik automatických analýz lze prohledat obrovské množství uložených dat. Velké uplatnění přináší data-mining také ve světě obchodu, v marketingových kampaních, strategických rozhodovacích procesech a podobně. V případě, že by závěrem data-miningu byly již známé skutečnosti, nebo jednoduše odvoditelné skutečnosti, byla využitelnost a efektivnost dolování v datech nulová [11, 43]. V následujících kapitolách je popsáno několik základních úloh, kterými se data-mining zabývá. Vzhledem k rozsahu a množství algoritmů u jednotlivých úloh, není možné obsáhnout v této práci veškeré přístupy. U každé úlohy jsou tedy popsány vybrané algoritmy. 4.1 Indexace textových dokumentů Základním úkolem Indexace textových dokumentů je vytvořit takovou množinu termů, která co nejlepším způsobem popisuje obsah a zaměření zkoumaného dokumentu. Indexaci lze rozdělit dle způsobu zpracování na dva základní typy: ruční a automatická. Ruční indexace je prováděna expertem. Ten stanoví potřebné množství termů a vybere hledanou množinu nejlépe popisujících zkoumaný dokument. Největší nevýhodou tohoto přístupu je doba potřebná pro sestavení takového indexového souboru a také nezbytná přítomnost experta na danou problematiku, což se projeví kromě jiného také ve finanční náročnosti. Navíc při nezávislé indexaci jednoho dokumentu dvěma různými experty je velmi pravděpodobné sestavení odlišných indexových souborů (počet termů či rozdílné termy). To je dáno jistou mírou subjektivity každého z expertů [1]. Automatická indexace má za úkol nedostatky ruční indexace odstranit. Počet termů je předem dán. Při pokročilé indexaci lze předem mít skupinu termů, ze které je následně indexový vektor sestavován. Takové indexaci se říká řízená. Samotný výběr termů spočívá v sestavení vektorového modelu, popsaného v předchozích kapitolách. Následnou aplikací metod na snížení dimenze a seřazení termů vektorového souboru dle jejich významu (například metoda TF-IDF) je sestaven vektor. Ten slouží k vytvoření indexového souboru na základě požadovaného množství termů. Do indexového souboru jsou vybírány termy na základě jejich významu. Termy, které se vyskytují v příliš mnoha dokumentech a tedy jejich TF-IDF se blíží k, nejsou vhodné, jelikož se s velkou pravděpodobností nejedená o nositele podstatných informací. Stejně tak nejsou vhodné termy, u kterých se TF-IDF blíží 1, to jsou

40 termy, které jsou naopak svým výskytem v korpusu ojedinělé. V případě vysokého numerického vyčíslení TF-IDF jde převážně o příliš odborné názvy, které nejsou podstatou dokumentů [14]. Obrázek č. 9, znázorňuje závislost výskytu termů v dokumentech na analýze TF-IDF. Jako zdrojové dokumenty jsou pro jednoduchost použity dokumenty z předchozích kapitol. Příklad: Dokument A: The man walked the dog. Dokument B: The man took the dog to the park. Dokument C: The dog went to the park. Společný vektor dokumentů, jehož vytvoření je demonstrováno v kapitole 3.2 Vector space model, je tedy v k = (The, man, walked, dog, took, to, park, went). Za předpokladu, že dokument B má být indexován a zbylé dva dokumenty tvoří korpus, pak frekvenční zápis vektoru s vyjádřením důležitosti slova vypadá takto: Tabulka 5 Vyjádření vah termů dokumentu B pro indexaci the man walked dog took to park went počet souborů tfb * idf,18,48,18,18 Obrázek 9 Závislost výskytu termů v korpusu na TF-IDF - 3 -

41 Termy se vybírají od středu intervalu, tedy TF-IDF =,5, v závislosti na požadovaném počtu termů, respektive na velikosti indexového souboru. Čím menší bude dimenze indexového souboru, tím více informací bude skryto, naopak čím větší dimenze tím obecnější bude popis, což není vhodné například u internetových vyhledávačů. 4.2 Shrnutí textu - sumarizace Definice: Text that is produced from one or more texts, that contains a signifiant partion of the information in the original text(s), and that is no longer then half of the original text(s). [26] Sumarizace textu je tedy shrnutí dokumentů do kratší podoby, při zachování důležitých informací. Zároveň její délka nepřekračuje polovinu velikosti původního dokumentu. Sumarizaci lze nazvat také jako abstrakt, který je zcela diametrálně odlišný od předchozí úlohy indexace a to především ve skutečnosti, že sumarizace poskytuje ucelené informace. Nejde tedy pouze o termy, nýbrž o stručné větné vyjádření obsahu textových dokumentů. Existuje několik různých přístupů, jak tento abstrakt vytvořit. Podle způsobu přístupu k sumarizaci, lze tyto úlohy rozdělit na heuristické, statistické, grafové a další [26, 4] Luhnova metoda Jednou z metod, jak z textového dokumentu vytvořit sumarizaci, je Luhnova metoda. Jde o statistickou metodu založenou na posuzování významu nikoliv elementárních částí dokumentů, jako jsou slova, nýbrž celých vět. Postup Luhnovy metody je následující. Pro každou větu V i zpracovávaného dokumentu D je vytvořen vektor frekvencí výskytu jednotlivých termů tf. Dále je vytvořen inverzní vektor idf. Pomocí těchto dvou vektorů, respektive jejich skalárním součinem, je vypočtena významnost každé věty w [31]. n o =9 op 89 op Věta, která dosáhne nejvyššího významu je zahrnuta do výsledku sumarizace S [31]. q =maxun op v+ q

42 Jedna věta však nemusí mít dostačující vypovídající hodnotu o celém dokumentu, proto tímto celý postup nekončí. Všechny termy, které obsahuje věta s nejvyšším významem, jsou z dokumentu odstraněny. = = (= k ) Kde V i je množina termů (slov), které obsahuje již vybraná věta začleněná do shrnutí dokumentu D. Opět se vytvoří vektory tf a idf, kde jejich skalární součin identifikuje další větu. Tímto způsobem se pokračuje tak dlouho, dokud nemá sumarizace potřebnou délku. Příklad: Pro názornost byl vybrán výňatek z článku přílohy č. 2 - Nový systém odhalí plagiátorství mezi vědci. Červeně jsou zvýrazněna stop-slova, která nejsou nositelem informací a nejsou tedy zahrnuta do společného vektoru. Dimenze vektorového souboru tak klesne ze 43 na 34. V1: Repozitar.cz umožní také zpřístupnit výsledky vědy širší veřejnosti při zachování vůle autorů. V2: K tzv. otevřenému přístupu k vědeckým informacím, který prosazuje hnutí Open Access, se MU přihlásila loni v říjnu podpisem Berlínské deklarace. V3: Informatici MU již proto také vytvořili vlastní univerzitní repozitář, který rozšiřuje stávající systém evidence publikací. Sestavení společného vektoru v k (abecedně seřazený): v k = (autorů, Berlínské, deklarace, evidence, hnutí, informacím, Informatici, loni, MU,Open Access, otevřenému, podpisem, prosazuje, přihlásila, přístupu, publikací, repozitář, rozšiřuje, Repozitar.cz, říjnu, stávající, systém, širší, univerzitní, veřejnosti, vědeckým, vědy, vlastní, vůle, vytvořili, výsledky, umožní, zachování, zpřístupnit) v 1 = (1,,,,,,,,,,,,,,,,,, 1,,,, 1,, 1,, 1,, 1,, 1, 1, 1, 1) v 2 = (, 1, 1,, 1, 1,, 1, 1, 1, 1, 1, 1, 1, 1,,,,, 1,,,,,, 1,,,,,,,, ) v 3 = (,,, 1,,, 1,, 1,,,,,,, 1, 1, 1,,, 1, 1,, 1,,,, 1,, 1,,,, ) Idf = (.48,.48,.48,.48,.48,.48,.48,.48,.18,.48,.48,.48,.48,.48,.48,

43 .48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48,.48) Následuje vypočet skalárního součinu vektorů tf i a idf a vyčíslení významu věty, ten je vyjádřen jako součet všech parametrů vektoru získaného skalárním součinem (hodnoty při skutečných výpočtech budou v závislosti na délce dokumentu mnohem nižší). tf v1 *idf = (.48,,,,,,,,,,,,,,,,,.48,,,,.48,,.48,,.48,,.48,,.48,.48,.48,.48) významnost věty = 4,8 tf v2 *idf = (,.48,.48,,.48,.48,,.48,.18,.48,.48,.48,.48,.48,.48,,,,,.48,,,,,,.48,,,,,,,, ) významnost věty = 6,42 tf v3 *idf = (,,,.48,,,.48,,.18,,,,,,,.48,.48,.48,,,.48,.48,,.48,,,,.48,,.48,,,, ) významnost věty = 4,98 Nejvýznamnější větou ze tří posuzovaných je tedy: K tzv. otevřenému přístupu k vědeckým informacím, který prosazuje hnutí Open Access, se MU přihlásila loni v říjnu podpisem Berlínské deklarace. V dalším kroku by následovalo vyřazení všech termů, které obsahuje tato věta z dokumentu a proces by se opakoval až do požadovaného rozsahu sumarizace Grafová analýza hyperstuktur Grafové metody byly původně navrženy pro hodnocení a následné řazení webových stránek. Jsou postaveny na teorii grafu, kde G je graf s množinou vrcholů V a množinou hran E, kde E je podmnožinou VxV. Pro každý vrchol V i existuje množina vrcholů In(V i ), ze kterých vede větev do V i a množina vrcholů Out(V i ), do kterých vede větev z V i. Vrcholy reprezentují jednotlivé věty a větve reprezentují vazby mezi větami. Příkladem takového algoritmu může být PageRank. Ten využívá pro ohodnocení výsledků řada internetových

44 vyhledávačů (například Google) [31, 24]. Tw(k )= 1 8 U+8 & Tw(k #) xyc(k # )x o z {(o p ) Kde N je počet vrcholů a d je parametr (faktor tlumení) s hodnotou intervalu až 1. Parametr (1-d) vyjadřuje pravděpodobnost provedení přechodu z jednoho vrcholu na libovolný další vrchol a parametr d vyjadřuje pravděpodobnost přechodu podle větve vedoucí z aktuálního vrcholu. Hodnota d je doporučena ve výši,8. Počáteční hodnoty vrcholů nejsou podstatné, proto se volí pro všechny stejné se součtem 1 [31]. Z hlediska použití při analýze textových dokumentů, je však vhodnější použít algoritmus, který umožňuje určit nejen důležitost jednotlivých vrcholů (vět), ale také váhu větví (podobnost vět), které je spojují. Takovým algoritmem je například LexRank LexRank Jedná se o pokročilý grafový algoritmus, který podobnost vět zachycuje do matice. Ta je velikosti nxn, kde n vyjadřuje počet vět dokumentu. Každá hodnota se počítá pomocí kosinové podobnosti [31]. H8IJ =cos()= N ǁAǁ ǁBǁ = P I ) (I ) ) (P ) Podle metod uvedených v předchozích kapitolách, jsou postupně sestrojeny pro dokument D vektory v k a idf. Pro každou větu i pak normovaný tf i, a tf i *idf. Výsledná matice podobnosti je složena z výpočtů dle uvedeného vzorce pro jednotlivé páry vět. K výpočtu se používá parametru t, což je práh podobnosti. Ten určuje minimální hranici stupně vrcholu, který bude zařazen do výsledného souhrnu. Větve (hodnoty míry podobnosti), které nesplňují kritérium parametru t, jsou z grafu vymazány a tím je snížen také stupeň vrcholu (věty). Práh podobnosti se volí na základě požadovaného rozsahu sumarizace. Čím je nastavena větší hodnota t, tím méně vazeb ve výsledném souhrnu [24]. Algoritmus využívá také hodnot významnosti vět w i. Pakliže vrchol dosáhne potřebného stupně dle t, nemusí být přesto zařazen z důvodu nízkého významu

45 Příklad: Považujme, pro zjednodušení, za dokument první tři věty článku z přílohy č. 2 Nový systém odhalí plagiátorství mezi vědci. Práh podobnosti t =,3. Dle předchozích kapitol jsou vypočítány následující hodnoty: idf = (.48,.48, ) tf 1.věty * idf = ( ) tf 2.věty * idf = ( ) tf 3.věty * idf = ( ) Dosazením do vzorce podobnosti jsou získány hodnoty pro výslednou matici vrcholů (vět), které vyjadřují podobnost jednotlivých vět. P I H8IJ(1.P 2. ěs)= ) (P ) ) (I ) =,62 3,642 =,17 H8IJ(1.P 3. ěs)=,62 4,11 =,39 H8IJ(2.P 3. ěs)= 4,331 = Váhy jednotlivých vět jsou stanoveny Luhnovou metodou: w 1.věty = 7,736, w 2.věty = 8,463 a w 3.věty = 1,423 Tabulka 6 Matice podobnosti 3 vět článku přílohy č.2 1.věta 2.věta 3.věta 3 1.věta 1,17,39 2.věta, věta,39 1 Věty, které jsou identické, mají podobnost rovnu 1 a věty, které se dle míry podobnosti nijak nepřekrývají (nemají žádná společná slova), mají podobnost. Z uvažovaného dokumentu,

46 respektive jeho prvních tří vět, by byla nejprve vybrána do sumarizace 3. věta, protože má nejvyšší stupeň vrcholu, který splňuje prahovou hodnotu t a zároveň nejvyšší váhu w. Následující obrázek reprezentuje již grafické zobrazení celého článku, při nastavení hodnot prahu podobnosti na,25. Červeně obarvené vrcholy nevyhovují zadané hodnotě významnosti w a vrcholy, které nemají žádnou společnou vazbu, nesplnily kriterium prahu podobnosti t. Obrázek 1 Grafová analýza LexRank článku přílohy č.2 [32] Výsledná sumarizace celého článku metodou LexRank zahrnuje následujících 5 vět: Nový systém odhalí plagiátorství mezi vědci. Spolu se studentskými pracemi se stanou v elektronické podobě součástí takzvaného Repozitáře, který do budoucna umožní také jejich zpřístupnění širší veřejnosti při dodržení autorských práv. Projekt, na jehož realizaci získaly vysoké školy přes třináct miliónů korun, řeší široké spektrum problémů spojených s plagiátorstvím v terciárním vzdělávání, říká mluvčí Masarykovy univerzity Tereza Fojtová. Deset z patnácti vysokých škol, které se do projektu řízeného MU zapojily, se chystá také pořizovat, upravovat a následně napojit své lokální systémy pro sběr zaměstnaneckých děl na systém Repozitar.cz. Aby vyhledávání podobných souborů (možných plagiátů) bylo co nejúčinnější, bude databáze propojena s dalšími již existujícími systémy pro vyhledávání plagiátů například Theses.cz (vysokoškolskými kvalifikačními pracemi) a Odevzdej.cz (studentskými pracemi) aj

47 4.3 Klasifikace textových dokumentů (klastrování) Klasifikace textových dokumentů je souhrn metod, které mají za úkol stanovit téma neboli doménu, na kterou je posuzovaný dokument zaměřen. Základním kamenem je předpoklad, že tematicky podobné dokumenty mají také podobnou strukturu a složení termů. Cílem klasifikace může být také zařazení dokumentů podle předem zvoleného atributu autora, domény, jazyka či žánru. Metody pro klasifikaci dokumentů, stejně jako předchozí, nepracují přímo s nestrukturovaným dokumentem. Pro analýzu používají buď výstupní data z indexace, nebo selekce či extrakce příznaků. Mezi nejznámější metody klasifikace dokumentů patří lexikální frekvenční analýza, shluková analýza, naivní bayesovská klasifikace a další [16, 7] Lexikální frekvenční analýza Jedná se o metodu, která posuzuje téma (doménu) dokumentu na základě počtu výskytů důležitých (reprezentativních) slov. Před samotnou kategorizací je nutné textové dokumenty předzpracovat pomocí výše uvedených metod ke snížení dimenze vektorového souboru. Metody pro kategorizaci potom pracují již se souhrnem termů, které vhodným způsobem reprezentují posuzovaný dokument. Dokument je redukován pomocí výše popsaných metod a jednotlivé termy jsou zaznamenány do přehledné tabulky frekvenční analýzy. Pro názornost byla zpracována tabulka frekvenčních výskytu termů článku z přílohy č. 2 Nový systém odhalí plagiátorství mezi vědci, respektive jeho 3 vět. Největší roli pro klasifikaci podle tématu hrají podstatná jména. V následující tabulce jsou již v upraveném tvaru po lemmatizaci. Ve dvou případech bylo zachováno důležité sousloví. Jedná se o spojení tvořící důležité názvy, proto je vhodné je zachovat. Příklad: Repozitar.cz umožní také zpřístupnit výsledky vědy širší veřejnosti při zachování vůle autorů. K tzv. otevřenému přístupu k vědeckým informacím, který prosazuje hnutí Open Access, se MU přihlásila loni v říjnu podpisem Berlínské deklarace. Informatici MU již proto také vytvořili vlastní univerzitní repozitář, který rozšiřuje stávající systém evidence publikací

48 Tabulka 7 Frekvenční výskyt slov v dokumentu a napříč korpusem Term počet výskytů Celkový součet počet dokumentů Repozitář 2 1 Možnost 1 1 Přístup 2 1 Výsledek 1 1 Věda 2 1 Veřejnost 1 1 Vůle 1 1 Autor 1 1 Informace 2 1 Hnutí 1 1 Open Access 1 1 Loni 1 1 Berlínská deklarace 1 1 Univerzita 1 1 Systém 1 1 Evidence 1 1 Publikace 1 1 Nejčetnější termy jsou tedy: informace, věda, přístup a repozitář. Z takto definovaných klíčových slov je sestaven vektor. Ten je porovnán s již existujícími vektory různých domén. Dokument je zařazen do domény s největší podobností vektorů klíčových slov [7]. Velkou nevýhodou této metody je absence porovnání důležitosti termů, závislost na velikosti dokumentu a podobně

49 4.3.2 Shluková analýza Shluková (clusterová) analýza je vícerozměrná statistická metoda vycházející ze seskupování objektů (termů nebo dokumentů) do shluků na základě jejich podobnosti. Jednotlivé termy jsou přidávány do shluků tak, aby rozptyl shluku by minimální a vzdálenosti mezi jednotlivými shluky byly maximální. Jinými slovy řečeno, shluková analýza má za úkol rozdělit soubor dat na několik shluků tak, aby si objekty uvnitř shluku byly co nejvíce podobné. V úloze data-miningu, která se zabývá stanovením tématu, je za objekt považován jeden textový dokument. Pomocí metod shlukové analýzy lze roztřídit velké množství dokumentů do tematicky podobných skupin (shluků). Další možností využití je roztřídění dokumentů do již známých domén (kategorií). V takovém případě je nutné již mít předem vytvořené domény obsahující výčet klíčových termů. Shluková analýza funguje na principu vnitřní podobnosti dokumentů (objektů). Výsledkem analýzy může být diagram zobrazující nalezené množiny podobných dokumentů, kde jednotlivé množiny reprezentují různé domény. Výsledky shlukové analýzy mohou být reprezentovány pomocí různých typů grafů jako je 2D cluster map či dendrogram. Obrázek 11 Příklad 2D cluster mapy a dendrogramu [41] Obrázek č.11 (vlevo) zobrazuje 2D mapu, na které jsou zobrazeny 2-dimenzionální objekty. Jak je z grafu vidět, objekty tvoří 4 shluky. Na obrázku č.11 (vpravo), jsou na dendrogramu shluky reprezentovány uzly jednotlivých větví grafu. Na vertikální ose jsou zachyceny jednotlivé objekty (jejich číselné označení). V prvním kroku obsahující pouze jeden objekt. Horizontální osa vyjadřuje vzdálenost, na níž došlo ke spojení shluku. Zároveň zachycuje

50 podobnost jednotlivých shluků. Porovnávané objekty lze zapsat do matice X typu m*n, kde X reprezentuje dokumentový korpus, m je počet objektů a n vyjadřuje počet proměnných. Cílem shlukové analýzy je rozklad matice X do k skupin (domén) [13]. Cílem rozkladu je nalezení takového počtu shluků S, aby objekty uvnitř shluku vykazovaly co největší míru podobnosti. S (k) = {C1, C2, C3,, Ck} Míra podobnosti je měřena pomocí metrik k určení vzdálenosti mezi objekty. Příkladem metrik mohou být euklidovská vzdálenost či Canberra a další. ρ Z ur,r # v=}&(r ~ R #~ ) ~ ρ 1 ur,r # v=& xr ~ R #~ x R ~ +xr #~ x ~ Uvedené metriky však nedokážou reagovat na silně korelované proměnné, či na hodnoty použitých různých jednotek (hmotnost, váha, vzdálenost apod.). Jednou z metrik, která řeší vzájemnou korelaci parametrů je tzv. Mahalanobisova metrika k určení vzdálenosti objektů. ρ ur,r # v=(r R # ) l k (R R # ) Kde V -1 je inverzní kovarianční matice. Shluková analýza má několik možností přístupů dělení matice vzdáleností objektů do jednotlivých shluků. Ty lze rozdělit na hierarchické a nehierarchické. Mezi hierarchické metody patří například strategie nalezení nejbližšího či nejvzdálenějšího souseda, zatímco pro nehierarchické metody jsou využívány například metody k-means, fuzzy C-means, RELOC a podobně

51 Hierarchické shlukování Základem metod pro hierarchické shlukování je matice vzdáleností D, kterou je nutné rozložit do k shluků. Na začátku rozkladu je předpoklad, že existuje pouze jeden shluk, do kterého patří všechny objekty. V každém i-tém kroku je shluk rozdělen na další dva shluky. Grafickou reprezentací hierarchického shlukování je stromový diagram nazývaný dendrogram. Podle výše uvedených metrik posuzování vzdálenosti mezi objekty se budou lišit také jejich grafy. Obrázek 12 Příklad řádkového a sloupcového dendrogramu [41] Jednotlivé řádky reprezentující všechny objekty jsou zobrazeny nejvíce vpravo (viz. Obrázek č. 12 řádkový dendrogram). Každý uzel znázorňuje shluk všech objektů, které leží napravo od uzlu. Vertikální čára znázorňuje řez grafem s uvedenými hodnotami počtu aktuálních shluků a vzdáleností mezi nimi Metoda nejbližšího souseda Metoda nejbližšího souseda prohledává matici vzdáleností D k nalezení nejmenší hodnoty min(ρ), respektive shluků h a h, které jsou si nejblíže. Tyto dva shluky jsou spojeny do nového společného shluku g. Matici vzdáleností D je nyní potřeba upravit nahrazením h-tého a h -tého řádku a sloupce nově spočítanou vzdáleností g-tého shluku od ostatních shluků. Matice vzdáleností je konstruována z jednotlivých vzdáleností vyjádřených například pomocí euklidovského vztahu. Kde se na hlavní diagonále vyskytují (vzdálenost v x od v x ). Pro lepší názornost uvedeného postupu je uveden následující příklad. K reprezentaci

52 dokumentů byly zvoleny dvousložkové vektory. Ve skutečnosti by objekty byly vyjádřeny například vektorovým zápisem pomocí tf * idf. V demonstračním příkladě by však víceparametrické vektory neměly vypovídající informační hodnotu, proto byly nahrazeny níže popsanými objekty. Příklad: Pro jednoduchost je dáno několik objektů A 1, A 2, A 3, A 4 a A 5, které jsou reprezentovanými vektory v a1 =[2,2], v a2 =[3,3], v a3 =[4,6], v a4 =[6,3] a v a5 =[8,4]. Na následujícím obrázku jsou zobrazeny ve 2-rozměrném prostoru (viz. obrázek č. 13) [13]. Obrázek 13 Zobrazení objektů v rovině [13] Jak bylo výše zmíněno, v prvním kroku je nutné spočítat matici vzdáleností D všech objektů A. Matice D se bude lišit v závislosti na použité metrice výpočtu vzdáleností. Za použití euklidovského vyjádření vzdáleností mezi objekty získáme matici v následujícím tvaru. Vzhledem ke skutečnosti, že jsou posuzovány vzdálenosti mezi všemi body, jde o symetrickou matici. Hlavní diagonála je nulová jelikož vzdálenost mezi objekty A 1 a A 1 je rovna. ρ Z up,p # v=}&(p ~ P #~ ) ~ ρ Z (P,P )=)(2 3) +(2 3) = 2 ρ Z (P,P \ )=)(2 4) +(2 6) = 2 ρ Z (P,P ] )=)(2 6) +(2 3) = 17 ρ Z (P,P )=)(2 8) +(2 4) =

53 . Výsledky euklidovských vzdáleností jednotlivých objektů jsou reprezentovány v následující matici: A 1 A 2 A 3 A 4 A 5 A A A A A = = ƒ ƒ Dalším krokem je nalezení prvních dvou nejbližších objektů, které jsou reprezentovány prvkem matice d 12 s hodnotou 2. Jde o vzdálenost mezi objekty A 1 a A 2, které budou v tomto kroku nahrazeny novým společným shlukem. 1. a 2. řádek a stejně tak 1. a 2. sloupec, které reprezentovaly vzdálenosti objektů A 1 a A 2 jsou nahrazeny jedním společným řádkem a sloupcem nového shluku [13]. Obrázek 14 Dendrogram po prvním kroku rozkladu matice D

54 Nové hodnoty jsou stanoveny z minimálních hodnot následujícím způsobem: 8 ( )\ =min(8 \ ;8 \)=1 8 ( )] =min(8 ] ;8 ])=9 8 ( ) =min(8 ;8 )= = = ˆ Další krok je analogický, opět je vyhledán první nejmenší prvek - d 34 s hodnotou 5. Jde o vzdálenost mezi původními objekty A 4 a A 5. Tyto objekty opět vytvoří společný shluk a stejně jako v předchozím bodě jsou nahrazeny novým shlukem. 8 ( )\ =min(8 \ ;8 \)=1 8 ( )(] ) =minu8 ( )] ;8 ( ) v=9 8 \(] ) =min(8 \] ;8 \ )= = \ = 1 13Š 9 13 Obrázek 15 Dendrogram po druhém kroku rozkladu matice D Dalším nejmenším prvkem rozložené matice je 9, pomocí kterého je matice rozložena do konečné podoby. 8 (( )(] ))\ =minu8 ( )\ ;8 (] )\ v=1 = ] = 1 1 Œ Konečný dendrogram rozkladu matice D do jednotlivých shluků je znázorněn na následujícím obrázku

55 Obrázek 16 Dendrogram rozkladu na shluky Alternativou pro metodu nejbližšího souseda je metoda nejvzdálenějšího souseda, která se liší pouze ve výběru maximálního prvku na rozdíl od znázorněného postupu. Efektivnější a častěji používanější metodou rozkladu matice je počítání nových středů posuzovaných objektů (shluků), dochází tak k menším chybám v kategorizaci, vzhledem ke skutečnosti malého posunu težiště shluku, oproti krajním hodnotám vzdáleností stanovených u nových shluků. Jedním z takových postupů je nehierarchická metoda K-means Nehierarchické shlukování Na rozdíl od hierarchického shlukování rozkládají matici do předem daných podmnožin (shluků). Tyto shluky jsou dány vzorovými hodnotami (tématy). Na počátku metody je nutné všechny hodnoty přiřadit do některého vzorového tématu (shluku). Postupně je každý objekt přiřazen do všech předem definovaných témat, kde je spočítána hodnota podobnosti (vzdálenosti) s tímto shlukem. Kde je hodnota vzdálenosti nejlepší, tam bude objekt přiřazen. Nehierarchické metody jsou někdy též nazývány optimalizačními metodami, které hledají nejlepší kategorizaci objektů postupným přeřazováním mezi vzorovými tématy. Jednou z optimalizačních metod je metoda K-means Metoda k-means Metoda k-means se vyznačuje předem definovaným počtem hledaných shluků k. Přičemž

56 k je zpravidla menší než počet původních objektů. Nejprve je nutné vybrat k počátečních vzorových objektů (bodů), které jsou buď prvky původní množiny objektů, nebo hledané tematicky zaměřené objekty (domény). Všechny objekty jsou náhodně přiděleny do vybraných k shluků. Stanoví se těžiště shluků zvětšené/zmenšené o jeden právě přidaný/odebraný objekt. Postupně jsou porovnány všechny objekty, respektive jejich polohy vzhledem k těžišti shluku. Pokud má právě přidaný objekt polohu nejblíže k těžišti shluku, zůstane v tomto shluku, v opačném případě je odebrán a přiřazen do jiného. Algoritmus končí ve chvíli, kdy nejde k žádnému přesunu objektu mezi shluky. Pro názornost budeme uvažovat opět případ z předchozí kapitoly a objekty A 1 A 5. Nehierarchické metody vyžadují předem stanovený počet hledaných shluků. Pro jednoduchost zvolíme k=2 [13]. Náhodně jsou přiřazeny objekty do jednotlivých shluků. Shluk S 1 obsahuje objekty A 1, A 3 a A 5 a shluk S 2 obsahuje objekty A 2 a A 4. Po přiřazení je nutné přepočítat těžiště shluků dle následujícího vzorce: h ~ =( J ; Ž+ Ž+...+ Ž ) J Těžiště vybraných dvou shluků budou mít tedy polohu: h = ; =(4,7;4) h = ; =(4,5;3) Po výpočtu těžišť jednotlivých shluků následuje výpočet vzdáleností všech bodů A 1..A 5 vzhledem k vypočítaným těžištím (euklidovská metrika). ρ(h, )=(4,7 2) +(4 2) =11,29 ρ(h, )=(4,5 2) +(3 2) =7,25 A 1 je blíže těžišti T 2 změna shluku na S 2 ρ(h, )=(4,7 3) +(4 3) =3,89 ρ(h, )=(4,5 3) +(3 3) =2,25 A 2 je blíže těžišti T 2 shluku S 2, ve kterém se nachází

57 ρ(h, )=(4,7 8) +(4 4) =1,89 ρ(h, )=(4,5 8) +(3 4) =13,25 A 5 je blíže těžišti T 1 shluku S 1, ve kterém se nachází Vzhledem ke skutečnosti, že shluky změnily svou velikost, je nutné přepočítat jejich těžiště T 1 a T 2. Přepočty vzdáleností objektů od těžišť se opakují tak dlouho, dokud nejsou všechny vzdálenosti objektů od těžišť shluku, do kterých jsou právě přiřazeny, menší než vzdálenosti od jiných těžišť shluků. 4.4 Fraud management Další úlohou data-miningu je Fraud management. Ten se též někdy nazývá detekcí podvodů. Jak již název napovídá, jedná se o metodu k odhalení podvodného jednání či jeho náznaků. Je postaven na expertních znalostech, které jsou formulovány do pravidel, která slouží pro klasifikaci zkoumaných dat. Pravidla jsou následně implementována do různých skryptů, expertních systémů a podobně. Významným úkolem Fraud managementu je posuzování internetových objednávek, odhalování nevyžádané pošty, různých žádostí, formulářů, pojistných událostí a podobně. Pro tyto účely je možné využít některou z analýz z předchozích kapitol, jako je například shluková analýza, frekvenční analýza, indexace dokumentů a podobně. Shlukovou analýzu je možno s úspěchem využít při odhalování podvodných objednávek, které demonstruje obrázek č.17. Vlevo je graf objednávek v závislosti na čase, vpravo pak ilustrace shlukové analýzy sestavená z dvousložkových vektorů v i =(množství, cena), které reprezentují jednotlivé objednávky. Obrázek 17 Příklad detekce podvodných objednávek pomocí shlukové analýzy

58 Obrázek zachycuje dva případy podezřelého jednání. Červenou barvou je znázorněn prvek, který se významným způsobem odlišuje od ostatních a je detekován jako podezřelý. Oranžovou barvou je zvýrazněn prvek, který může být způsoben chybou systému (duplicitní objednávka), ale tímto způsobem by nebyl označen. Z tohoto důvodu je vhodné metody kombinovat s dalšími pravidly. Fraud managementu lze využít také k detekci podvodných ů. Zde je možné využít frekvenční analýzu výskytu podezřelých termů a při překročení prahové hodnoty takový dokument označit. V sofistikovanějších metodách lze využít porovnání podobnosti vektorů. V takovém případě je nutné mít sestavený vektor klíčových slov pro nežádoucí dokumenty. Zredukovat dimenzi porovnávaného dokumentu na hodnotu dimenze filtru a provést porovnání. Fraud managementu je možné dále využít při analýze strukturovaných dokumentů formulářů, databází a podobně. Klíčovou informací pro identifikaci můžou být krátká doba od uzavření pojistné smlouvy, dvě navzájem si odporující položky formuláře (nezaměstnaný x výše platu) a další. Pro názornost lze uvést běžný způsob pojišťoven při likvidaci pojistných událostí, kdy využívají formulářů k ohodnocení míry rizik při jejich vyhodnocení Expertní bodový systém [25]. Obrázek 18 Příklad pravidel ohodnocení sledovaných příznaků [25] U všech výše zmíněných případů se nemusí vždy jednat o podvod, ale určitě je vhodné je označit a následně ověřit s ohledem na možné dopady (například finanční náklady). Tato úloha má za úkol pouze identifikovat možná rizika

59 4.5 Hledání plagiátů Za jednu z nejdůležitějších úloh pro analýzu nestrukturovaných dat považuji hledání plagiátů. Jedná se o velice závažný problém v oblasti lidské tvůrčí práce, především v oblasti vědy a školství. Cílem této metod pro hledání plagiátů je vyhledat dokumenty s takovou mírou vzájemné podobnosti, u kterých je možné porušení zákona o autorském právu. Z důvodu rozsáhlosti této problematiky se tato práce bude zabývat metodou využívající výše popsanou Latentní sémantickou analýzu (LSA) pouze v oblasti textových dokumentů. Metody pro hledání plagiátů lze dle T. Lancastera [11] dělit dle několika kritérií. Dle složitosti: povrchní - metody se nezabývají znalostí jazyka a jeho struktury; strukturní - jsou zde použity znalosti o struktuře jazyka, ohebnosti a podobně. Dle počtu zpracovávaných dokumentů: jednotlivé - zpracováván pouze jeden dokument, kde výsledky mohou být použity v následném párovém porovnání; párové - současné zpracování dvou dokumentů; multidimenzionální - současné zpracování m dokumentů; korpální - současné zpracování celého korpusu Hledání plagiátu pomocí LSA Dle výše zmíněného rozdělení se tato metoda vyznačuje strukturním přístupem k textovým dokumentům. Podle druhého rozdělení dle tabulky č. 9, závisí jen na počtu porovnávaných dokumentů. Jako u každé metody analýzy nestrukturovaných dat je i zde nutné, z důvodu snížení výpočetní náročnosti, ale také přesnosti, provést předzpracování dat. Z porovnávaných dokumentů je nejprve nutné vytvořit vektory, kde jsou termy reprezentovány n-gramy. N-gramy mohou být tvořeny i celými větami. Ty, které se vyskytují v obou porovnávaných dokumentech, signalizují známky plagiátorství. Naopak ty které se vyskytují pouze v jednom dokumentu, nejsou pro tuto úlohu důležité, neboť je zřejmé, že nejsou plagiovány [39]

60 Metodou SVD je dále provedena redukce dimenze na základě konceptů korpusu. Podobnost dokumentů se stanovuje pomocí matice V T, kterou je nutné z důvodu získání správného rozměru matice reprezentující porovnávané dokumenty, vynásobit maticí singulárních hodnot Σ dle následujícího vztahu: N =k l Σ Zda se jedná o dokumenty, které jsou plagiovány, vyjadřuje opět matice podobností. Jedná se o symetrickou matici, která udává procentuální podobnost pro všechny porovnávané dokumenty. Matice podobností se vypočítá dle následujícího vztahu: H8IJ o =( N l N ) Původní vektory dokumentů byly však redukovány na základě významnosti n-gramů, které znázorňuje obrázek č. 19. Tato redukce negativním způsobem ovlivňuje míru podobnosti dokumentů. Obrázek 19 Podobnost dokumentů [23] Ačkoli jde pouze o podobnost nevýznamných termů, je vhodné minimalizovat chybu výpočtu podobnosti s ohledem na rozdíl mezi počtem původních termů před redukcí a počtem termů po redukci. Následující vztah tuto chybu odstraňuje: podobnost (, ) =podobnost (A,N) xph š œ (A)x ph žÿ () xph š œ (B)x ph žÿ (B) Kde ph orig je počet původních n-gramů před redukcí dimenze vektoru a ph red reprezentuje počet termů po redukci dimenze vektorů

61 5 Systémy pro ukládání nestrukturovaných dat Vzhledem k obrovskému množství dat je nutné zavést do ukládaných dat předem definovaný systém. Pro lepší a jednodušší správu dat existují sofistikované systémy, které jsou určeny k ukládání, začleňování, třídění a následně k vyhledávání v datech. Právě vyhledávání a následné zpracování dříve uložených dat je zejména v podnikové struktuře stěžejní problém. Podnik má obrovské množství dat, které je potřeba zpracovat k získání například důležitých strategických či marketingových údajů. Systémy pro zpracování nestrukturovaných dat se na základní úrovni dělí na: systémy pro správu dokumentů (Document Management System) systémy pro správu obsahu (Content Management System) 5.1 Document Management Systém Základním úkolem document management systému (dále jen DMS) je řízení životního cyklu dokumentu po jeho vytvoření. Principem DMS je umožnit efektivně spravovat a sdílet firemní know-how ve formě strukturovaných i nestrukturovaných dokumentů. DMS systémy využívají centralizovaného uložiště, které zabezpečuje dostupnost informací na základě principu autorizace a poskytuje uživatelské rozhraní, které nabízí velké množství operací s takto uloženými daty. Primární fuknce: přehledná organizace dat; automatická tvorba, řízení verzí a revizí dokumentů; multi-uživatelský přístup; vyhledávací procedury; řízení životního cyklu dokumentu a podobně. Na trhu je mnoho systémů typu DMS, které poskytují výše uvedené funkcionality. Příkladem může být například Bussiness objects od společnosti SAP

62 5.2 Content Management System Základním úkolem content management systému (dále jen CMS) je řízení tvorby dokumentů neboli zajištění správné struktury dokumentu. CMS systémy se používají především ke tvorbě a správě webových aplikací. Jedná se o takzvaný redakční či publikační software. Primární funkce: vytvoření dokumentu dle stanovené struktury; administrace přístupu dle autentizace a autorizace; modifikace; správa dokumentů; statistické funkce. V závislosti na hloubce propracování systému mohou být implementovány funkce workflow a groupware. Workflow má za úkol řídit jednotlivé fáze tvorby dokumentu a předávat jejich řízení jednotlivým skupinám. Příkladem systému CMS může být produkt WordExpress, Drupal či Joomla!. Tyto jmenované redakční systémy jsou navíc šířeny zcela zdarma. 6 Sofwarové nástroje Data-miningu Softwarové nástroje tvoří velice důležitou část správy dat zejména v podnikových strukturách. Jak již bylo výše popsáno, je velice důležité mít množství dat, ale mnohem důležitější je skutečnost efektivně s těmi daty nakládat. Softwarové nástroje umožňují integraci výše popsaných metod a postupů a omezit vliv lidského faktoru. Automatizují celý proces a uživateli poskytují relevantní vizualizované informace. Existuje celá řada produktů zabývajících se data-miningem, které jsou více či méně propracované. V této kapitole budou reprezentovány zejména aplikace, které jsou volně dostupné pro jednotlivé úlohy data-miningu. Příkladem volně šiřitelných aplikací jsou KWords, Online summarize tool, Open NLP, ElasticSearch či Weka. Z portfolia komerčních

63 systémů je možné jmenovat například aplikace Oracle Data Minig, Statsoft Statistica či IBM SPSS Data Modeler. Většina open-source aplikací pro data-mining pracuje se strukturovanými daty (Weka formát ARFF) nebo vyžadují znalosti ve zpracování a využití Java skriptu (ElasticSearch). V případě jmenované Weky je navíc práce ztížena ne příliš přehledným prostředím. Pro účely této práce byly proto vybrány aplikace, které tyto požadavky nemají. 6.1 KWords Online aplikace KWords je zaměřená na indexaci textových dokumentů. Pro svou práci využívá referenčního korpusu SYN21 na jehož základě vybírá klíčová slova dokumentu. Výstupem KWords je seznam slov, jejichž frekvence je signifikantně vyšší v analyzovaném textu než v referenčním korpusu (např. v SYN21, což je vyvážený referenční korpus současné psané češtiny. Pokud je rozdíl ve frekvencích (po zohlednění odlišné velikosti textu a referenčního korpusu) statisticky významný (např. na základě testů chi2 nebo log-likelihood), je následně vypočtena relevance rozdílu (tzv. effect size). [2] Na následujícím obrázku jsou reprezentovány výsledky indexace článku z přílohy č. 2 - Nový systém odhalí plagiátorství mezi vědci pomocí aplikace KWords. Obrázek 2 Reprezentace výsledků indexace [2] Pro indexaci uvedeného článku byly identifikovány následující klíčové termy: repozitář, sběr, pracemi, masarykovy, textů, univerzity a sytém. Tabulka zároveň zobrazuje jejich váhu či frekvenci

64 6.2 Online summarize tool Jedním z užitečných nástrojů pro automatickou sumarizaci textového dokumentů je Online summarize tool ( Tento nástroj jsem vybral především pro jeho širší možnost nastavení nežli je tomu u jiných dostupných online nástrojů. Pro své výpočty využívá algebraických metod založených na frekvenčním výskytu a výpočtu vah jednotlivých vět [42]. Stejně jako u většiny dostupných nástrojů však chybí implementace odstranění stop-slov, která vnáší do výpočtu nepřesnosti. Pro praktickou ukázku jeho funkcí byl vybrán článek přílohy č. 2 - Nový systém odhalí plagiátorství mezi vědci. Obrázek 21 Ukázka aplikace Online summarize tool [42] Tento nástroj umožňuje redukci dokumentu na základě nastavené prahové hodnoty Threshold nebo počtu požadovaných vět Number of lines. Čím vyšší je prahová hodnota nastavena, tím větší je redukce dokumentu. Při použití sumarizačního nástroje na zmíněný dokument, při na stavení Threshold na hodnotu 7, byl výsledkem sumarizace tento výstup: Deset z patnácti vysokých škol, které se do projektu řízeného MU zapojily, se chystá také pořizovat, upravovat a následně napojit své lokální systémy pro sběr zaměstnaneckých děl na systém Repozitar.cz. Aby vyhledávání podobných souborů (možných plagiátů) bylo co nejúčinnější, bude databáze propojena s dalšími již existujícími systémy pro vyhledávání plagiátů například Theses.cz (vysokoškolskými kvalifikačními pracemi) a Odevzdej.cz (studentskými pracemi) aj. Hlavním úkolem odborníků z Fakulty informatiky Masarykovy univerzity bude vyvinout nový systém pro sběr, řízenou prezentaci a kontrolu odborných

65 článků, publikací a jiných děl vytvořených zaměstnanci nebo doktorskými studenty tzv. Repozitar.cz. Což je redukce dokumentu na přibližně 2% původní velikosti. Z původních 13 vět byly sumarizací vybrány 3 nejvýstižnější věty. 6.3 Statistica 12 Jedním z komplexnějších nástrojů je komerční produkt Statistica Data miner 12 CZ od firmy StatSoft. V testovací verzi nabízí však uvedená společnost aplikaci bez modulu Text Mining, který je stěžejní pro zpracování nestrukturovaných dokumentů. Pro účely této práce se mi po konzultaci se zástupci uvedené společnosti podařilo získat tento modul v časově omezené zkušební verzi. Ačkoli se v názvu objevuje česká verze, jedná se pouze o částečnou lokalizaci aplikace. Velkou výhodou této aplikace je možnost načtení dokumentů z různých zdrojů (lokální složky, url,...) a formátů (txt, doc, xls,...). Obrázek 22 Načtení textových dokumentů [Statistica CZ v.12] Navzdory skutečnosti, že aplikace zatím nepodporuje český jazyk, umožňuje přidat znaky, seznam stop-slov a synsety jiného jazyka (viz. záložky Words a Filters )

66 Obrázek 23 Předzpracování dokumentů [Statistica CZ v.12] Velkým problémem však zůstává redukce dimenzí dokumentů. Aplikace neobsahuje funkci lemmatizace pro český jazyk. Proto je nutné využít externího lemmatizátoru (např. LemmaGen). I po této úpravě je však nutné ručně upravit soubor termů funkcí Combine Words,. Obrázek 24 Kombinace podobných slov [Statistica CZ v.12] Především z tohoto důvodu zatím není tato aplikace příliš vhodná pro automatické zpracování českých textů. Vyžaduje velký a časově náročný zásah zpracovatele

67 Obrázek 25 Ukázka funkcí programu [Statistica CZ v.12] Na obrázku č.25 (vlevo) je vidět reprezentace souborů vektory tf-idf a v pravé části pak identifikace konceptů, respektive singulárních hodnot. Jak bylo zmíněno v kapitole o SVD, díky nim je možné redukovat dimenzionální prostor na hodnotu počtu singulárních hodnot. V tomto případě byla dimenze vektorů souborů redukována pomocí LSA-SVD na 1-dimenzionální prostor, zatímco původní dimenze vektorů byla cca Theses.cz Dalším projektem analýzy textových dokumentů, který již delší dobu funguje za účelem registrování závěrečných prací a odhalování plagiátů. Theses.cz je financován Ministerstvem školství mládeže a tělovýchovy (dále jen MŠMT) a zpravuje ho Masarykova univerzita v Brně [29]. Projekt porovnává nové práce s ostatními, které jsou již v systému uloženy. Slabinou projektu je tzv. parafrázování, kdy autor vlastními slovy přepíše cizí myšlenky. Nicméně parafrázování je dle normy ČSN ISO , která definuje pojem plagiát, povolená forma využití cizích zdrojů. I v tomto případě však musí být řádně uveden zdroj informací, odkud autor práce čerpal [3]. Kontrola samotné závěrečné práce probíhá tak, že jsou pomocí funkce Vejce vejci vyhledány podobné dokumenty s procentuální mírou jejich překrytí. Při následném použití funkce Podobnosti jsou vypsány a zvýrazněny červenou barvou shodné pasáže. Samotné rozhodnutí, zda se jedná o plagiátorství, závisí již na posuzovateli

Text Mining: SAS Enterprise Miner versus Teragram. Petr Berka, Tomáš Kliegr VŠE Praha

Text Mining: SAS Enterprise Miner versus Teragram. Petr Berka, Tomáš Kliegr VŠE Praha Text Mining: SAS Enterprise Miner versus Teragram Petr Berka, Tomáš Kliegr VŠE Praha Text mining vs. data mining Text mining = data mining na nestrukturovaných textových dokumentech otázka vhodné reprezentace

Více

Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy

Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Autor práce : RNDr. Ivo Beroun,CSc. Vedoucí práce: prof. RNDr. Milan Meloun, DrSc. PROFILOVÁNÍ Profilování = klasifikace a rozlišování

Více

Dolování z textu. Martin Vítek

Dolování z textu. Martin Vítek Dolování z textu Martin Vítek Proč dolovat z textu Obrovské množství materiálu v nestrukturované textové podobě knihy časopisy vědeckéčlánky sborníky konferencí internetové diskuse Proč dolovat z textu

Více

PRODUKTY. Tovek Tools

PRODUKTY. Tovek Tools Analyst Pack je desktopovou aplikací určenou k vyhledávání informací, tvorbě různých typů analýz a vytváření přehledů a rešerší. Jsou vhodné pro práci i s velkým objemem textových dat z různorodých informačních

Více

Dobývání znalostí z textů text mining

Dobývání znalostí z textů text mining Dobývání znalostí z textů text mining Text mining - data mining na nestrukturovaných textových dokumentech 2 možné přístupy: Předzpracování dat + běžné algoritmy pro data mining Speciální algoritmy pro

Více

PRODUKTY. Tovek Tools

PRODUKTY. Tovek Tools jsou desktopovou aplikací určenou k vyhledávání informací, tvorbě různých typů analýz a vytváření přehledů a rešerší. Jsou vhodné pro práci i s velkým objemem textových dat z různorodých informačních zdrojů.

Více

Tovek Tools. Tovek Tools jsou standardně dodávány ve dvou variantách: Tovek Tools Search Pack Tovek Tools Analyst Pack. Připojené informační zdroje

Tovek Tools. Tovek Tools jsou standardně dodávány ve dvou variantách: Tovek Tools Search Pack Tovek Tools Analyst Pack. Připojené informační zdroje jsou souborem klientských desktopových aplikací určených k indexování dat, vyhledávání informací, tvorbě různých typů analýz a vytváření přehledů a rešerší. Jsou vhodné pro práci s velkým objemem textových

Více

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: 3 Maticový počet 3.1 Zavedení pojmu matice Maticí typu (m, n, kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: a 11 a 12... a 1k... a 1n a 21 a 22...

Více

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je

Více

0.1 Úvod do lineární algebry

0.1 Úvod do lineární algebry Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Lineární rovnice o 2 neznámých Definice 011 Lineární rovnice o dvou neznámých x, y je rovnice, která může být vyjádřena ve tvaru ax + by = c, kde

Více

Relační DB struktury sloužící k optimalizaci dotazů - indexy, clustery, indexem organizované tabulky

Relační DB struktury sloužící k optimalizaci dotazů - indexy, clustery, indexem organizované tabulky Otázka 20 A7B36DBS Zadání... 1 Slovníček pojmů... 1 Relační DB struktury sloužící k optimalizaci dotazů - indexy, clustery, indexem organizované tabulky... 1 Zadání Relační DB struktury sloužící k optimalizaci

Více

Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a přiřazení datových modelů

Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a přiřazení datových modelů Pracovní celky 3.2, 3.3 a 3.4 Sémantická harmonizace - Srovnání a datových modelů Obsah Seznam tabulek... 1 Seznam obrázků... 1 1 Úvod... 2 2 Metody sémantické harmonizace... 2 3 Dvojjazyčné katalogy objektů

Více

Ontologie. Otakar Trunda

Ontologie. Otakar Trunda Ontologie Otakar Trunda Definice Mnoho různých definic: Formální specifikace sdílené konceptualizace Hierarchicky strukturovaná množina termínů popisujících určitou věcnou oblast Strukturovaná slovní zásoba

Více

1 Báze a dimenze vektorového prostoru 1

1 Báze a dimenze vektorového prostoru 1 1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější

Více

Necht L je lineární prostor nad R. Operaci : L L R nazýváme

Necht L je lineární prostor nad R. Operaci : L L R nazýváme Skalární součin axiomatická definice odvození velikosti vektorů a úhlu mezi vektory geometrická interpretace ortogonalita vlastnosti ortonormálních bázi [1] Definice skalárního součinu Necht L je lineární

Více

DESET LET S THESES.CZ Ing. Jitka Brandejsová

DESET LET S THESES.CZ Ing. Jitka Brandejsová DESET LET S THESES.CZ Ing. Jitka Brandejsová OBECNÉ KONCEPTY Plagiát vs. software pro detekci podobností Cílem je kvalitnější vzdělání Schopnost práce s textem. Schopnost práce s citacemi. Akademická čest

Více

Úloha - rozpoznávání číslic

Úloha - rozpoznávání číslic Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání

Více

Vícerozměrné statistické metody

Vícerozměrné statistické metody Vícerozměrné statistické metody Shluková analýza Jiří Jarkovský, Simona Littnerová FSTA: Pokročilé statistické metody Typy shlukových analýz Shluková analýza: cíle a postupy Shluková analýza se snaží o

Více

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace Vektory a matice Aplikovaná matematika I Dana Říhová Mendelu Brno Obsah 1 Vektory Základní pojmy a operace Lineární závislost a nezávislost vektorů 2 Matice Základní pojmy, druhy matic Operace s maticemi

Více

Pro zvládnutí této kapitoly budete potřebovat 4-5 hodin studia.

Pro zvládnutí této kapitoly budete potřebovat 4-5 hodin studia. Úvod (Proč se zabývat statistikou?) Statistika je metoda analýzy dat, která nachází široké uplatnění v celé řadě ekonomických, technických, přírodovědných a humanitních disciplín. Její význam v poslední

Více

Modely vyhledávání informací 4 podle technologie. 1) Booleovský model. George Boole 1815 1864. Aplikace booleovské logiky

Modely vyhledávání informací 4 podle technologie. 1) Booleovský model. George Boole 1815 1864. Aplikace booleovské logiky Modely vyhledávání informací 4 podle technologie 1) Booleovský model 1) booleovský 2) vektorový 3) strukturní 4) pravděpodobnostní a další 1 dokumenty a dotazy jsou reprezentovány množinou indexových termů

Více

Automatické vyhledávání informace a znalosti v elektronických textových datech

Automatické vyhledávání informace a znalosti v elektronických textových datech Automatické vyhledávání informace a znalosti v elektronických textových datech Jan Žižka Ústav informatiky & SoNet RC PEF, Mendelova universita Brno (Text Mining) Data, informace, znalost Elektronická

Více

Metadata, sémantika a sémantický web. Ing. Vilém Sklenák, CSc.

Metadata, sémantika a sémantický web. Ing. Vilém Sklenák, CSc. Metadata, sémantika a sémantický web Ing. Vilém Sklenák, CSc. Inforum 2004, Praha, 27. 5. 2004 2/21 There are things we know that we know. There are known unknowns that is to say, there are things that

Více

Modely a sémantika. Petr Šaloun VŠB-Technická univerzita Ostrava FEI, katedra informatiky

Modely a sémantika. Petr Šaloun VŠB-Technická univerzita Ostrava FEI, katedra informatiky Modely a sémantika Petr Šaloun VŠB-Technická univerzita Ostrava FEI, katedra informatiky Úvod Existující problémy Prudký nárůst množství informací na webu Kognitivní přetížení Ztráta v informačním prostoru

Více

Matematika. ochrana životního prostředí analytická chemie chemická technologie Forma vzdělávání:

Matematika. ochrana životního prostředí analytická chemie chemická technologie Forma vzdělávání: Studijní obor: Aplikovaná chemie Učební osnova předmětu Matematika Zaměření: ochrana životního prostředí analytická chemie chemická technologie Forma vzdělávání: denní Celkový počet vyučovacích hodin za

Více

13 Barvy a úpravy rastrového

13 Barvy a úpravy rastrového 13 Barvy a úpravy rastrového Studijní cíl Tento blok je věnován základním metodám pro úpravu rastrového obrazu, jako je např. otočení, horizontální a vertikální překlopení. Dále budo vysvětleny různé metody

Více

Numerické metody a programování. Lekce 4

Numerické metody a programování. Lekce 4 Numerické metody a programování Lekce 4 Linarní algebra soustava lineárních algebraických rovnic a 11 a 12 x 2 a 1, N x N = b 1 a 21 a 22 x 2 a 2, N x N = b 2 a M,1 a M,2 x 2 a M,N x N = b M zkráceně A

Více

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 DOLOVÁNÍ V DATECH (DATA MINING) OBJEVUJE SE JIŽ OD 60. LET 20. ST. S ROZVOJEM POČÍTAČOVÉ TECHNIKY DEFINICE PROCES VÝBĚRU, PROHLEDÁVÁNÍ A MODELOVÁNÍ

Více

Numerické metody a programování

Numerické metody a programování Projekt: Inovace výuky optiky se zaměřením na získání experimentálních dovedností Registrační číslo: CZ.1.7/2.2./28.157 Numerické metody a programování Lekce 4 Tento projekt je spolufinancován Evropským

Více

Informační a komunikační technologie

Informační a komunikační technologie Dodatek č. Školního vzdělávacího programu Obchodní akademie Lysá nad Labem, obor 63-4-M/02 Obchodní akademie, platného od. 9. 202 - platnost dodatku je od. 9. 206 Informační a komunikační technologie je

Více

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] MATICE Matice typu m/n nad tělesem T je soubor m n prvků z tělesa T uspořádaných do m řádků a n sloupců: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] a m1 a m2 a mn Prvek a i,j je prvek matice A na místě

Více

7. Funkce jedné reálné proměnné, základní pojmy

7. Funkce jedné reálné proměnné, základní pojmy , základní pojmy POJEM FUNKCE JEDNÉ PROMĚNNÉ Reálná funkce f jedné reálné proměnné je funkce (zobrazení) f: X Y, kde X, Y R. Jde o zvláštní případ obecného pojmu funkce definovaného v přednášce. Poznámka:

Více

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy Lukáš Havrlant Univerzita Palackého 10. ledna 2014 Primární zdroj Jiří Adámek: Foundations of Coding. Strany 137 160. Na webu ke stažení, heslo:

Více

Unstructured data pre-processing using Snowball language

Unstructured data pre-processing using Snowball language Unstructured data pre-processing using Snowball language Předzpracování nestrukturovaných dat pomocí jazyka Snowball Bc. Pavel Řezníček, doc. Ing. František Dařena, PhD., Ústav informatiky, Provozně ekonomická

Více

11 Analýza hlavních komponet

11 Analýza hlavních komponet 11 Analýza hlavních komponet Tato úloha provádí transformaci měřených dat na menší počet tzv. fiktivních dat tak, aby většina informace obsažená v původních datech zůstala zachována. Jedná se tedy o úlohu

Více

Uživatelská podpora v prostředí WWW

Uživatelská podpora v prostředí WWW Uživatelská podpora v prostředí WWW Jiří Jelínek Katedra managementu informací Fakulta managementu Jindřichův Hradec Vysoká škola ekonomická Praha Úvod WWW obsáhlost obsahová i formátová pestrost dokumenty,

Více

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ Michal Kořenář 1 Abstrakt Rozvoj výpočetní techniky v poslední době umožnil také rozvoj výpočetních metod, které nejsou založeny na bázi

Více

1 Linearní prostory nad komplexními čísly

1 Linearní prostory nad komplexními čísly 1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)

Více

SVD rozklad a pseudoinverse

SVD rozklad a pseudoinverse SVD rozklad a pseudoinverse Odpřednesenou látku naleznete v kapitole 12 skript Abstraktní a konkrétní lineární algebra. Jiří Velebil: Lineární algebra 19.12.2016: SVD rozklad a pseudoinverse 1/21 Cíle

Více

Dolování asociačních pravidel

Dolování asociačních pravidel Dolování asociačních pravidel Miloš Trávníček UIFS FIT VUT v Brně Obsah přednášky 1. Proces získávání znalostí 2. Asociační pravidla 3. Dolování asociačních pravidel 4. Algoritmy pro dolování asociačních

Více

příkladů do cvičení. V textu se objeví i pár detailů, které jsem nestihl (na které jsem zapomněl) a(b u) = (ab) u, u + ( u) = 0 = ( u) + u.

příkladů do cvičení. V textu se objeví i pár detailů, které jsem nestihl (na které jsem zapomněl) a(b u) = (ab) u, u + ( u) = 0 = ( u) + u. Několik řešených příkladů do Matematiky Vektory V tomto textu je spočteno několik ukázkových příkladů které vám snad pomohou při řešení příkladů do cvičení. V textu se objeví i pár detailů které jsem nestihl

Více

1 0 0 u 22 u 23 l 31. l u11

1 0 0 u 22 u 23 l 31. l u11 LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23

Více

Pojem a úkoly statistiky

Pojem a úkoly statistiky Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Pojem a úkoly statistiky Statistika je věda, která se zabývá získáváním, zpracováním a analýzou dat pro potřeby

Více

Vývoj moderních technologií při vyhledávání. Patrik Plachý SEFIRA spol. s.r.o. plachy@sefira.cz

Vývoj moderních technologií při vyhledávání. Patrik Plachý SEFIRA spol. s.r.o. plachy@sefira.cz Vývoj moderních technologií při vyhledávání Patrik Plachý SEFIRA spol. s.r.o. plachy@sefira.cz INFORUM 2007: 13. konference o profesionálních informačních zdrojích Praha, 22. - 24.5. 2007 Abstrakt Vzhledem

Více

9 Kolmost vektorových podprostorů

9 Kolmost vektorových podprostorů 9 Kolmost vektorových podprostorů Od kolmosti dvou vektorů nyní přejdeme ke kolmosti dvou vektorových podprostorů. Budeme se zabývat otázkou, kdy jsou dva vektorové podprostory na sebe kolmé a jak to poznáme.

Více

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY

Více

Lineární algebra - I. část (vektory, matice a jejich využití)

Lineární algebra - I. část (vektory, matice a jejich využití) Lineární algebra - I. část (vektory, matice a jejich využití) Michal Fusek Ústav matematiky FEKT VUT, fusekmi@feec.vutbr.cz 2. přednáška z ESMAT Michal Fusek (fusekmi@feec.vutbr.cz) 1 / 40 Obsah 1 Vektory

Více

Datová věda (Data Science) akademický navazující magisterský program

Datová věda (Data Science) akademický navazující magisterský program Datová věda () akademický navazující magisterský program Reaguje na potřebu, kterou vyvolala rychle rostoucí produkce komplexních, obvykle rozsáhlých dat ve vědě, v průmyslu a obecně v hospodářských činnostech.

Více

Matice. Modifikace matic eliminační metodou. α A = α a 2,1, α a 2,2,..., α a 2,n α a m,1, α a m,2,..., α a m,n

Matice. Modifikace matic eliminační metodou. α A = α a 2,1, α a 2,2,..., α a 2,n α a m,1, α a m,2,..., α a m,n [1] Základní pojmy [2] Matice mezi sebou sčítáme a násobíme konstantou (lineární prostor) měníme je na jiné matice eliminační metodou násobíme je mezi sebou... Matice je tabulka čísel s konečným počtem

Více

Autor: Jan Hošek

Autor: Jan Hošek Úvod STC Závěr Autor: Jan Hošek Školitel: RNDr. Radim Řehůřek Fakulta jaderná a fyzikálně inženýrzká České vysoké učení technické v Praze 25. 5. 2009 Osnova Úvod STC Závěr 1 Úvod Motivace Ukázka technologie

Více

Textmining a Redukce dimenzionality

Textmining a Redukce dimenzionality Vytěžování dat, cvičení 7: Textmining a Redukce dimenzionality Miroslav Čepek, Michael Anděl Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti Fakulta elektrotechnická, ČVUT 1 / 22 Textmining

Více

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 21.

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 21. Vyhledávání doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava Prezentace ke dni 21. září 2018 Jiří Dvorský (VŠB TUO) Vyhledávání 242 / 433 Osnova přednášky

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou

Více

Identifikace. Jiří Jelínek. Katedra managementu informací Fakulta managementu J. Hradec Vysoká škola ekonomická Praha

Identifikace. Jiří Jelínek. Katedra managementu informací Fakulta managementu J. Hradec Vysoká škola ekonomická Praha Identifikace tématických sociálních sítí Katedra managementu informací Fakulta managementu J. Hradec Vysoká škola ekonomická Praha 2 Obsah prezentace Cíl Fáze řešení a navržené postupy Prototyp a výsledky

Více

Analýza dat na PC I.

Analýza dat na PC I. CENTRUM BIOSTATISTIKY A ANALÝZ Lékařská a Přírodovědecká fakulta, Masarykova univerzita Analýza dat na PC I. Popisná analýza v programu Statistica IBA výuka Základní popisná statistika Popisná statistika

Více

Matematika PRŮŘEZOVÁ TÉMATA

Matematika PRŮŘEZOVÁ TÉMATA Matematika ročník TÉMA 1-4 Operace s čísly a - provádí aritmetické operace v množině reálných čísel - používá různé zápisy reálného čísla - používá absolutní hodnotu, zapíše a znázorní interval, provádí

Více

Základy algoritmizace. Pattern matching

Základy algoritmizace. Pattern matching Základy algoritmizace Pattern matching 1 Pattern matching Úloha nalézt v nějakém textu výskyty zadaných textových vzorků patří v počítačové praxi k nejfrekventovanějším. Algoritmy, které ji řeší se používají

Více

Sémantický web a extrakce

Sémantický web a extrakce Sémantický web a extrakce informací Martin Kavalec kavalec@vse.cz Katedra informačního a znalostního inženýrství FIS VŠE Seminář KEG, 11. 11. 2004 p.1 Přehled témat Vize sémantického webu Extrakce informací

Více

MATEMATIKA Maturitní témata společná část MZ základní úroveň (vychází z Katalogu požadavků MŠMT)

MATEMATIKA Maturitní témata společná část MZ základní úroveň (vychází z Katalogu požadavků MŠMT) MATEMATIKA Maturitní témata společná část MZ základní úroveň (vychází z Katalogu požadavků MŠMT) 1. Číselné obory 1.1 Přirozená čísla provádět aritmetické operace s přirozenými čísly rozlišit prvočíslo

Více

0.1 Úvod do lineární algebry

0.1 Úvod do lineární algebry Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Vektory Definice 011 Vektorem aritmetického prostorur n budeme rozumět uspořádanou n-tici reálných čísel x 1, x 2,, x n Definice 012 Definice sčítání

Více

Popisná statistika kvantitativní veličiny

Popisná statistika kvantitativní veličiny StatSoft Popisná statistika kvantitativní veličiny Protože nám surová data obvykle žádnou smysluplnou informaci neposkytnou, je žádoucí vyjádřit tyto ve zhuštěnější formě. V předchozím dílu jsme začali

Více

Informační systémy 2008/2009. Radim Farana. Obsah. Obsah předmětu. Požadavky kreditového systému. Relační datový model, Architektury databází

Informační systémy 2008/2009. Radim Farana. Obsah. Obsah předmětu. Požadavky kreditového systému. Relační datový model, Architektury databází 1 Vysoká škola báňská Technická univerzita Ostrava Fakulta strojní, Katedra automatizační techniky a řízení 2008/2009 Radim Farana 1 Obsah Požadavky kreditového systému. Relační datový model, relace, atributy,

Více

7. Rozdělení pravděpodobnosti ve statistice

7. Rozdělení pravděpodobnosti ve statistice 7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,

Více

Regresní analýza 1. Regresní analýza

Regresní analýza 1. Regresní analýza Regresní analýza 1 1 Regresní funkce Regresní analýza Důležitou statistickou úlohou je hledání a zkoumání závislostí proměnných, jejichž hodnoty získáme při realizaci experimentů Vzhledem k jejich náhodnému

Více

Vzdálenost jednoznačnosti a absolutně

Vzdálenost jednoznačnosti a absolutně Vzdálenost jednoznačnosti a absolutně bezpečné šifry Andrew Kozlík KA MFF UK Značení Pracujeme s šifrou (P, C, K, E, D), kde P je množina otevřených textů, C je množina šifrových textů, K je množina klíčů,

Více

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody Fakulta chemicko-technologická Katedra analytické chemie 3.2 Metody s latentními proměnnými a klasifikační metody Vypracoval: Ing. Tomáš Nekola Studium: licenční Datum: 21. 1. 2008 Otázka 1. Vypočtěte

Více

Matematika B101MA1, B101MA2

Matematika B101MA1, B101MA2 Matematika B101MA1, B101MA2 Zařazení předmětu: povinný předmět 1.ročníku bc studia 2 semestry Rozsah předmětu: prezenční studium 2 + 2 kombinované studium 16 + 0 / semestr Zakončení předmětu: ZS zápočet

Více

ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE FAKULTA STAVEBNÍ, OBOR GEODÉZIE A KARTOGRAFIE KATEDRA MAPOVÁNÍ A KARTOGRAFIE

ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE FAKULTA STAVEBNÍ, OBOR GEODÉZIE A KARTOGRAFIE KATEDRA MAPOVÁNÍ A KARTOGRAFIE ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE FAKULTA STAVEBNÍ, OBOR GEODÉZIE A KARTOGRAFIE KATEDRA MAPOVÁNÍ A KARTOGRAFIE název předmětu TOPOGRAFICKÁ A TEMATICKÁ KARTOGRAFIE číslo úlohy název úlohy 2 Tvorba tematických

Více

4. Trojúhelníkový rozklad p. 1/20

4. Trojúhelníkový rozklad p. 1/20 4. Trojúhelníkový rozklad 4. Trojúhelníkový rozklad p. 1/20 4. Trojúhelníkový rozklad p. 2/20 Trojúhelníkový rozklad 1. Permutační matice 2. Trojúhelníkové matice 3. Trojúhelníkový (LU) rozklad 4. Výpočet

Více

MINISTERSTVO ŠKOLSTVÍ, MLÁDEŽE A TĚLOVÝCHOVY. Učební osnova předmětu MATEMATIKA. pro nástavbové studium. varianta B 6 celkových týd.

MINISTERSTVO ŠKOLSTVÍ, MLÁDEŽE A TĚLOVÝCHOVY. Učební osnova předmětu MATEMATIKA. pro nástavbové studium. varianta B 6 celkových týd. MINISTERSTVO ŠKOLSTVÍ, MLÁDEŽE A TĚLOVÝCHOVY Učební osnova předmětu MATEMATIKA pro nástavbové studium (hodinová dotace: varianta A 4 až 5 celkových týd. hodin, varianta B 6 celkových týd. hodin) Schválilo

Více

STATISTICKÝ SOUBOR. je množina sledovaných objektů - statistických jednotek, které mají z hlediska statistického zkoumání společné vlastnosti

STATISTICKÝ SOUBOR. je množina sledovaných objektů - statistických jednotek, které mají z hlediska statistického zkoumání společné vlastnosti ZÁKLADNÍ STATISTICKÉ POJMY HROMADNÝ JEV Statistika pracuje s tzv. HROMADNÝMI JEVY cílem statistického zpracování dat je podání informace o vlastnostech a zákonitostech hromadných jevů: velkého počtu jedinců

Více

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných

Více

Informační systémy 2008/2009. Radim Farana. Obsah. Nástroje business modelování. Business modelling, základní nástroje a metody business modelování.

Informační systémy 2008/2009. Radim Farana. Obsah. Nástroje business modelování. Business modelling, základní nástroje a metody business modelování. 3 Vysoká škola báňská Technická univerzita Ostrava Fakulta strojní, Katedra automatizační techniky a řízení 2008/2009 Radim Farana 1 Obsah Business modelling, základní nástroje a metody business modelování.

Více

Matice. Předpokládejme, že A = (a ij ) je matice typu m n: diagonálou jsou rovny nule.

Matice. Předpokládejme, že A = (a ij ) je matice typu m n: diagonálou jsou rovny nule. Matice Definice. Maticí typu m n nazýváme obdélníkové pole, tvořené z m n reálných čísel (tzv. prvků matice), zapsaných v m řádcích a n sloupcích. Značíme např. A = (a ij ), kde i = 1,..., m, j = 1,...,

Více

Renáta Bednárová STATISTIKA PRO EKONOMY

Renáta Bednárová STATISTIKA PRO EKONOMY Renáta Bednárová STATISTIKA PRO EKONOMY ZÁKLADNÍ STATISTICKÉ POJMY Statistika Statistický soubor Statistická jednotky Statistický znak STATISTIKA Vědní obor, který se zabývá hromadnými jevy Hromadné jevy

Více

Uspořádanou n-tici reálných čísel nazveme aritmetický vektor (vektor), ā = (a 1, a 2,..., a n ). Čísla a 1, a 2,..., a n se nazývají složky vektoru

Uspořádanou n-tici reálných čísel nazveme aritmetický vektor (vektor), ā = (a 1, a 2,..., a n ). Čísla a 1, a 2,..., a n se nazývají složky vektoru 1 1. Lineární algebra 1.1. Lineární závislost a nezávislost vektorů. Hodnost matice Aritmetické vektory Uspořádanou n-tici reálných čísel nazveme aritmetický vektor (vektor), ā = (a 1, a 2,..., a n ).

Více

Problémové domény a jejich charakteristiky

Problémové domény a jejich charakteristiky Milan Mišovič (ČVUT FIT) Pokročilé informační systémy MI-PIS, 2011, Přednáška 02 1/16 Problémové domény a jejich charakteristiky Prof. RNDr. Milan Mišovič, CSc. Katedra softwarového inženýrství Fakulta

Více

Úvodem Dříve les než stromy 3 Operace s maticemi

Úvodem Dříve les než stromy 3 Operace s maticemi Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová

Více

STATISTICKÉ PROGRAMY

STATISTICKÉ PROGRAMY Slezská univerzita v Opavě Obchodně podnikatelská fakulta v Karviné STATISTICKÉ PROGRAMY VYUŽITÍ EXCELU A SPSS PRO VĚDECKO-VÝZKUMNOU ČINNOST Elena Mielcová, Radmila Stoklasová a Jaroslav Ramík Karviná

Více

Data v počítači. Informační data. Logické hodnoty. Znakové hodnoty

Data v počítači. Informační data. Logické hodnoty. Znakové hodnoty Data v počítači Informační data (elementární datové typy) Logické hodnoty Znaky Čísla v pevné řádové čárce (celá čísla) v pohyblivé (plovoucí) řád. čárce (reálná čísla) Povelová data (instrukce programu)

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

Úvod do lineární algebry

Úvod do lineární algebry Úvod do lineární algebry 1 Aritmetické vektory Definice 11 Mějme n N a utvořme kartézský součin R n R R R Každou uspořádanou n tici x 1 x 2 x, x n budeme nazývat n rozměrným aritmetickým vektorem Prvky

Více

Operační výzkum. Vícekriteriální hodnocení variant. Grafická metoda. Metoda váženého součtu.

Operační výzkum. Vícekriteriální hodnocení variant. Grafická metoda. Metoda váženého součtu. Operační výzkum Vícekriteriální hodnocení variant. Grafická metoda. Metoda váženého součtu. Operační program Vzdělávání pro konkurenceschopnost Název projektu: Inovace magisterského studijního programu

Více

IB112 Základy matematiky

IB112 Základy matematiky IB112 Základy matematiky Řešení soustavy lineárních rovnic, matice, vektory Jan Strejček IB112 Základy matematiky: Řešení soustavy lineárních rovnic, matice, vektory 2/53 Obsah Soustava lineárních rovnic

Více

Matematika B101MA1, B101MA2

Matematika B101MA1, B101MA2 Matematika B101MA1, B101MA2 Zařazení předmětu: povinný předmět 1.ročníku bc studia 2 semestry Rozsah předmětu: prezenční studium 2 + 2 kombinované studium 16 + 0 / semestr Zakončení předmětu: ZS zápočet

Více

Požadavky na konkrétní dovednosti a znalosti z jednotlivých tematických celků

Požadavky na konkrétní dovednosti a znalosti z jednotlivých tematických celků Maturitní zkouška z matematiky 2012 požadované znalosti Zkouška z matematiky ověřuje matematické základy formou didaktického testu. Test obsahuje uzavřené i otevřené úlohy. V uzavřených úlohách je vždy

Více

Algoritmy pro shlukování prostorových dat

Algoritmy pro shlukování prostorových dat Algoritmy pro shlukování prostorových dat Marta Žambochová Katedra matematiky a informatiky Fakulta sociálně ekonomická Univerzita J. E. Purkyně v Ústí nad Labem ROBUST 21. 26. leden 2018 Rybník - Hostouň

Více

Vzdělávací oblast: Matematika a její aplikace Vzdělávací obor: Matematický kroužek pro nadané žáky ročník 9.

Vzdělávací oblast: Matematika a její aplikace Vzdělávací obor: Matematický kroužek pro nadané žáky ročník 9. Vzdělávací oblast: Matematika a její aplikace Vzdělávací obor: Matematický kroužek pro nadané žáky ročník 9. Školní rok 2013/2014 Mgr. Lenka Mateová Kapitola Téma (Učivo) Znalosti a dovednosti (výstup)

Více

MATURITNÍ TÉMATA Z MATEMATIKY

MATURITNÍ TÉMATA Z MATEMATIKY MATURITNÍ TÉMATA Z MATEMATIKY 1. Základní poznatky z logiky a teorie množin Pojem konstanty a proměnné. Obor proměnné. Pojem výroku a jeho pravdivostní hodnota. Operace s výroky, složené výroky, logické

Více

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1 Logistická regrese Menu: QCExpert Regrese Logistická Modul Logistická regrese umožňuje analýzu dat, kdy odezva je binární, nebo frekvenční veličina vyjádřená hodnotami 0 nebo 1, případně poměry v intervalu

Více

Státnice odborné č. 20

Státnice odborné č. 20 Státnice odborné č. 20 Shlukování dat Shlukování dat. Metoda k-středů, hierarchické (aglomerativní) shlukování, Kohonenova mapa SOM Shlukování dat Shluková analýza je snaha o seskupení objektů do skupin

Více

Úvod do teorie informace

Úvod do teorie informace PEF MZLU v Brně 24. září 2007 Úvod Výměna informací s okolím nám umožňuje udržovat vlastní existenci. Proces zpracování informací je trvalý, nepřetržitý, ale ovlivnitelný. Zabezpečení informací je spojeno

Více

Asociační i jiná. Pravidla. (Ch )

Asociační i jiná. Pravidla. (Ch ) Asociační i jiná Pravidla (Ch. 14 +...) Učení bez učitele Nemáme cílovou třídu Y, G; máme N pozorování což jsou p-dimenzionální vektory se sdruženou pravděpodobností chceme odvozovat vlastnosti. Pro málo

Více

Numerická stabilita algoritmů

Numerická stabilita algoritmů Numerická stabilita algoritmů Petr Tichý 9. října 2013 1 Numerická stabilita algoritmů Pravidla v konečné aritmetice Pro počítání v konečné aritmetice počítače platí určitá pravidla, která jsou důležitá

Více

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 12.

Vyhledávání. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 12. Vyhledávání doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava Prezentace ke dni 12. září 2016 Jiří Dvorský (VŠB TUO) Vyhledávání 201 / 344 Osnova přednášky

Více

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést Úlohy k zamyšlení 1. Zdůvodněte, proč třetí řádek Hornerova schématu pro vyhodnocení polynomu p v bodě c obsahuje koeficienty polynomu r, pro který platí p(x) = (x c) r(x) + p(c). 2. Dokažte, že pokud

Více

Tabulace učebního plánu

Tabulace učebního plánu Tabulace učebního plánu Vzdělávací obsah pro vyučovací předmět : Informační a výpočetní technika Ročník: 3. - 4. ročník (septima - oktáva) Tématická oblast DIGITÁLNÍ TECHNOLOGIE informatika hardware software

Více

Antiplagiátorské nástroje pro naše repozitáře

Antiplagiátorské nástroje pro naše repozitáře Antiplagiátorské nástroje pro naše repozitáře Jan Mach Vysoká škola ekonomická v Praze Univerzita Karlova v Praze 23. 10. 2013 Seminář ke zpřístupňování šedé literatury Co je plagiát? 1. klonování vydávání

Více

PRODUKTY Tovek Server 6

PRODUKTY Tovek Server 6 Tovek Server je serverová aplikace určená pro efektivní zpracování velkého objemu sdílených strukturovaných i nestrukturovaných dat. Umožňuje automaticky indexovat data z různých informačních zdrojů, intuitivně

Více