Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005



Podobné dokumenty
Trénování sítě pomocí učení s učitelem

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Algoritmy a struktury neuropočítačů ASN - P11

3. Vícevrstvé dopředné sítě

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Emergence chování robotických agentů: neuroevoluce

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Využití neuronové sítě pro identifikaci realného systému

Strojové učení se zaměřením na vliv vstupních dat

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Umělé neuronové sítě

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder

5. Umělé neuronové sítě. Neuronové sítě

KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ

NG C Implementace plně rekurentní

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Daniel Beneš Slezská univerzita v Opavě Filozoficko-přírodovědecká fakulta Ústav informatiky

Projekt IMPLEMENTACE ŠVP. pořadí početních operací, dělitelnost, společný dělitel a násobek, základní početní operace

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Paralelní výpočty ve finančnictví

MI-PAA. úkol č.3. Řešení problému batohu dynamickým programováním, metodou větví a hranic a aproximativním algoritmem

Neuronové sítě Ladislav Horký Karel Břinda

Vytěžování znalostí z dat

Rosenblattův perceptron

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Rozdělování dat do trénovacích a testovacích množin

Klasifikace hudebních stylů

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

Algoritmy I, složitost

ití empirických modelů při i optimalizaci procesu mokré granulace léčivl ková SVK ÚOT

Moderní systémy pro získávání znalostí z informací a dat

Speciální struktury číslicových systémů ASN P12

Poslední nenulová číslice faktoriálu

VYUŽITÍ NEURONOVÝCH SÍTÍ PROSTŘEDÍ MATLAB K PREDIKCI HODNOT NÁKLADŮ PRO ELEKTRICKÉ OBLOUKOVÉ PECE

Národní informační středisko pro podporu kvality

AUTOMATICKÁ DETEKCE JAZYKA TEXTOVÉHO DOKUMENTU LANGUAGE IDENTIFICATION OF TEXT DOCUMENT

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Učící se klasifikátory obrazu v průmyslu

StatSoft Úvod do neuronových sítí

Rekurzivní algoritmy

Neuronové časové řady (ANN-TS)

VYUŽITÍ MATLABU PRO VÝUKU NUMERICKÉ MATEMATIKY Josef Daněk Centrum aplikované matematiky, Západočeská univerzita v Plzni. Abstrakt

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

PV021 Vícevrstvá neuronová síť pro rozeznávání mikroteček. Matúš Goljer, Maroš Kucbel, Michal Novotný, Karel Štěpka 2011

Úloha: Verifikace osoby pomocí dynamického podpisu

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

1. Data mining. Strojové učení. Základní úlohy.

Neuropočítače. podnět. vnímání (senzory)

Dynamické programování

Kvantové algoritmy a bezpečnost. Václav Potoček

Kybernetika a umělá inteligence, cvičení 10/11

Evropský zemědělský fond pro rozvoj venkova: Evropa investuje do venkovských oblastí. v cestovním ruchu P3. Pavel Petr Petr.USII@upce.

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

cv3.tex. Vzorec pro úplnou pravděpodobnost

Neuronové sítě Učení bipolárního perceptronu

ALGORITMY A DATOVÉ STRUKTURY

ROZPOZNÁNÍ TITULU GRAMOFONOVÉ DESKY PODLE KRÁTKÉ UKÁZKY

PREDIKCE POČTU UCHAZEČŮ O STUDIUM S VYUŽITÍM NEURONOVÝCH SÍTÍ

Národní informační středisko pro podporu kvality

Matematika PRŮŘEZOVÁ TÉMATA

Profilová část maturitní zkoušky 2013/2014

Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

LOKALIZACE ZDROJŮ AE NEURONOVÝMI SÍTĚMI NEZÁVISLE NA ZMĚNÁCH MATERIÁLU A MĚŘÍTKA

Úvod do zpracování signálů

J.Breier, M.Vančo, J.Ďaďo, M.Klement, J.Michelfeit, Masarykova univerzita Fakulta informatiky

Detektor anomálií DNS provozu

PŘEDMLUVA 11 FORMÁLNÍ UJEDNÁNÍ 13

Deep learning v jazyku Python

Náhodné signály. Honza Černocký, ÚPGM

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Fakulta elektrotechniky a komunikačních technologií Ústav radioelektroniky. prof. Ing. Stanislav Hanus, CSc v Brně

UČENÍ BEZ UČITELE. Václav Hlaváč

ACTA UNIVERSITATIS AGRICULTURAE ET SILVICULTURAE MENDELIANAE BRUNENSIS SBORNÍK MENDELOVY ZEMĚDĚLSKÉ A LESNICKÉ UNIVERZITY V BRNĚ

Rekurze. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava. Prezentace ke dni 12.

METODIKA ZPRACOVÁNÍ EKONOMICKÝCH ČASOVÝCH ŘAD S VYUŽITÍM SIMULÁTORŮ NEURONOVÝCH SÍTÍ

Digitální učební materiál

Složitost algoritmů. doc. Mgr. Jiří Dvorský, Ph.D. Katedra informatiky Fakulta elektrotechniky a informatiky VŠB TU Ostrava

Integrace ICT na gymnáziu? Petr Naske

Autor: Jan Hošek

Paralelní programování

Časová složitost / Time complexity

Modernizace a inovace výpočetní kapacity laboratoří ITE pro účely strojového učení. Jiří Málek

Semestrální práce: Rozpoznání hláskované řeči a převedení na text

Gymnázium. Přípotoční Praha 10

MetaCentrum. Martin Kuba CESNET

Analýza dat na PC I.

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

Neuronové sítě v DPZ

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Whale detection Brainstorming session. Jiří Dutkevič Lenka Kovářová Milan Le

VYUŽITÍ AUTOENKODÉRŮ PRO TVORBU HLUBO-

Jasové transformace. Karel Horák. Rozvrh přednášky:

Obsah přednášky. 1. Principy Meta-learningu 2. Bumping 3. Bagging 4. Stacking 5. Boosting 6. Shrnutí

GRAFICKÉ ROZHRANÍ V MATLABU PRO ŘÍZENÍ DIGITÁLNÍHO DETEKTORU PROSTŘEDNICTVÍM RS232 LINKY

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

PREDIKCE VÝROBY FV SYSTÉMŮ

Transkript:

Rozpoznávání písmen Jiří Šejnoha Rudolf Kadlec (c) 2005

Osnova Motivace Popis problému Povaha dat Neuronová síť Architektura Výsledky Zhodnocení a závěr

Popis problému Jedná se o praktický problém, kdy je potřebné z grafické předlohy extrahovat textová data a jejich význam resp. jejich základní detekce a kategorizace Zaměříme se pouze na část problematiky a to na roztřídění z předem detekovaných a statisticky předzpracovaných písmen textu

Popis problému 2. Naším cílem je tedy z předem zpracovaných dat grafické a statistické charakteristiky písmen abecedy, detekovat o jaké písmeno abecedy se jedná

Zdrojová data 20 tisíc vzorků písmen, písmena jsou psána různými fonty a je k nim přidán náhodný šum Přibližně stejná distribuce všech písmen latinské abecedy, od každého cca 00 vzorků Vzorek je dvojice (charakteristika,písmeno) Charakteristika je 16 údajů získaných z grafické podoby písmene

Charakteristiky Převážně statistické údaje x-bar - mean x of on pixels in box (integer) y-bar - mean y of on pixels in box (integer) x2bar - mean x variance (integer) y2bar - mean y variance (integer) xybar - mean x y correlation (integer) x2ybr - mean of x * x * y (integer) xy2br - mean of x * y * y (integer) x-ege - mean edge count left to right (integer) Příklad jedné charakteristiky písmene K 3 6 5 4 3 3 9 2 6 10 11 11 3 8 2 6 K 11 10 8 6 4 8 3 11 10 12 4 8 4 6

Neuronová síť Zvolili jsme dopřednou vrstevnatou neuronovou síť, trénovanou algoritmem backpropagation Původní záměr byl rozpoznávat všech 26 písmen - přílišné časové a paměťové nároky pro učení Nakonec jen prvních 13 písmen přijatelnější nároky Na simulaci a výpočet neuronové sítě byl použit toolbox na práci s neuronovými sítěmi programu MATLAB, síť byla zadána pomocí skriptu a distribuována na více počítačů

Architektura Vstup 16 charakteristik => 16 neuronů Skrytá vrstva Počet neuronů počítán přes for cyklus - zkoušeno od 2 do 28 Vyšší počet nebyl možný vzhledem k paměťovým nárokům procesu Výstup je písmeno A-L transformované do posloupnosti 0(neaktivní neuron) a 1(aktivní, tj. výstup definován > 0.8), kde muže být jen jedna 1, pořadí 1 určuje písmeno => 13 neuronů Přenosové funkce logsig, logsig

Metodika trénování Množinu vzorů tvořilo prvních 13 písmen abecedy po 00 ks na písmeno. Ta byla zpermutována a 65% dat bylo použito jako trénovací a 35 % jako validační množina Při procesu učení byla použita vnitřní funkce train s podmínkou ukončení trénování při vzrůstu chyby na validační množině Odzkoušením bylo zjištěno, že použití této funkce nemá větší vliv na schopnost natrénování sítě a vyhnuli se tak problému přeučení sítě a navíc došlo k výraznému urychlení procesu učení

Metodika trénování 2. Pro každou architekturu sítě (tj.: pro každý počet neuronů ve skryté vrstvě) byla síť učena 5x a pokaždé náhodně inicializována Rozdíl v naučení pro různé počáteční nastavení byl až v desítkách procent Rozdíly časů byly až násobné Větším počtem inicializací jsme omezili uvíznutí ve špatném lokálním minimu

Graf chyb sítí Graf 1: Závislost chybovosti sítě na počtu neuronů ve skryté vrstvě Graf 1: Závislost chybovosti sítě na počtu neuronů ve skryté vrstvě 1,0 0,9 0,8 0, C h yb o vo st sítě (% ) 0,6 0,5 0,4 0,3 0,2 0,1 0,0 2 2 2 4 10 10 12 12 13 13 16 16 1 1 1 19 19 22 22 28 28 28 Počet neuronů v skryté vrstvě (ks)

Graf časové závislosti Graf 2: Závislost časové náročnosti učení sitě na počtu neuronů skryté vrstvy 000 Graf 2: Závislost časové náročnosti učení sitě na počtu neuronů skryté vrstvy Exponenciální (Graf 2: Závislost časové náročnosti učení sitě na počtu neuronů skryté vrstvy) 6000 y = 202,13e 0,053x R 2 = 0,6264 5000 Č a s uč e n í (s ) 4000 3000 2000 1000 0 2 2 2 4 10 10 12 12 13 13 16 16 1 1 1 19 19 22 22 28 28 28 Počet neuronů (ks)

Shrnutí výsledků Při nejlepším naučení sítě bylo dosaženo 9,5% chyby a to při konfiguraci sítě 16-28-13, tedy s 28 neurony v skryté vrstvě Při zkoumání velikosti chyby sítě v závislosti na jejím počtu neuronů lze pozorovat, že chyba sítě klesá, ne však lineárně, ale pravděpodobně(dle grafu 1) exponencielně Lze předpokládat, že při velkém počtu neuronů, by síť menší chyby nedosahovala, pouze by se přeučila

Pár poznámek na konec Větší sítě nebylo možno natrénovat vzhledem k výpočetním možnostem Čistý čas výpočtů 21 hodin, hrubý(testování, pády na kapacity pamětí a CPU Time, ) několik dní