Algoritmy a struktury neuropočítačů ASN - P14. Neuropočítače

Podobné dokumenty
Implementace KSOM. Marek Bártů. LANNA Katedra teorie obvodů FEL ČVUT.

Akcelerátor pro KSOM

Přehled paralelních architektur. Dělení paralelních architektur Flynnova taxonomie Komunikační modely paralelních architektur

OPS Paralelní systémy, seznam pojmů, klasifikace

Algoritmy a struktury neuropočítačů ASN - P11

Představení a vývoj architektur vektorových procesorů

Základy informatiky. 2. Přednáška HW. Lenka Carr Motyčková. February 22, 2011 Základy informatiky 2

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Přednášky o výpočetní technice. Hardware teoreticky. Adam Dominec 2010

Neuropočítače. podnět. vnímání (senzory)

REKONFIGURACE FPGA. Božetěchova 1/2, Brno.

ZÁKLADY PROGRAMOVÁNÍ. Mgr. Vladislav BEDNÁŘ /14

Umělé neuronové sítě

Jan Nekvapil ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE Fakulta elektrotechnická

Operační systémy. Přednáška 1: Úvod

4. Úvod do paralelismu, metody paralelizace

Algoritmy a struktury neuropočítačů ASN P3

Principy počítačů I Netradiční stroje

Závěrečná zpráva projektu Experimentální výpočetní grid pro numerickou lineární algebru

Pohled do nitra mikroprocesoru Josef Horálek

Neuronové sítě Ladislav Horký Karel Břinda

Úvod do GPGPU J. Sloup, I. Šimeček

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Paralelní systémy. SIMD jeden tok instrukcí + více toků dat jedním programem je zpracováváno více různých souborů dat

Pro úlohy digitálního zpracování obrazu je příznačný velký objem dat. Doposud ani rychlé počítače s konvenční sériovou architekturou nejsou schopny

FPGA + mikroprocesorové jádro:

Sběrnicová struktura PC Procesory PC funkce, vlastnosti Interní počítačové paměti PC

Přednáška 1. Katedra počítačových systémů FIT, České vysoké učení technické v Praze Jan Trdlička, 2012

Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Algoritmy a struktury neuropočítačů ASN - P1

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Katedra informatiky a výpočetní techniky. 10. prosince Ing. Tomáš Zahradnický doc. Ing. Róbert Lórencz, CSc.

Hardwarové zpracování obrazu

Paralelní a distribuované výpočty (B4B36PDV)

Státnice odborné č. 20

PB002 Základy informačních technologií

Semestrální práce z předmětu Speciální číslicové systémy X31SCS

Náplň přednášky 1. Vestavěný systém Výrobci technických řešení Mikrokontroléry ARM NXP Kinetis KL25Z Rapid prototyping Laboratorní vývojová platforma

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Hardware - komponenty počítačů Von Neumannova koncepce počítače. Von Neumannova koncepce počítače

ARCHITEKTURA SYSTÉMU PRO DYNAMICKY REKONFIGUROVATELNÝ KOMUNIKAČNÍ TERMINÁL

SYSTÉMY NAČIPU MI-SOC

Výkonnostní srovnání DSP Jak optimalizovat výběr procesoru. Analog Devices, Texas Instruments Freescale

Rosenblattův perceptron

Architektura Intel Atom

2.8 Procesory. Střední průmyslová škola strojnická Vsetín. Ing. Martin Baričák. Název šablony Název DUMu. Předmět Druh učebního materiálu

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Úvod SISD. Sekvenční výpočty SIMD MIMD

Algoritmy a struktury neuropočítačů ASN P6

MSP 430F1611. Jiří Kašpar. Charakteristika

CHARAKTERISTIKA MODERNÍCH PENTIÍ. Flynnova klasifikace paralelních systémů

Popis zobrazení pomocí fuzzy logiky

NG C Implementace plně rekurentní

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Procesor. Hardware - komponenty počítačů Procesory

Návrh. číslicových obvodů

Osobní počítač. Zpracoval: ict Aktualizace:

ANALYTICKÉ PROGRAMOVÁNÍ

NSWI /2011 ZS. Principy cpypočítačůčů aoperačních systémů ARCHITEKTURA

13. Paralelní architektury SISD, SIMD, MISD, MIMD.

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Zpráva o průběhu přijímacího řízení na vysokých školách dle Vyhlášky MŠMT č. 343/2002 a její změně 276/2004 Sb.

Paralelní programování

INFORMAČNÍ A KOMUNIKAČNÍ TECHNOLOGIE

Grid jako superpočítač

GPGPU Aplikace GPGPU. Obecné výpočty na grafických procesorech. Jan Vacata

Profilová část maturitní zkoušky 2015/2016

Workshop. Vývoj embedded aplikací v systému MATLAB a Simulink. Jiří Sehnal sehnal@humusoft.cz. info@humusoft.cz.

C2115 Praktický úvod do superpočítání

Zpracování obrazu v FPGA. Leoš Maršálek ATEsystem s.r.o.

Globální matice konstrukce

Pokročilé architektury počítačů

Charakteristika dalších verzí procesorů v PC

INFORMAČNÍ A KOMUNIKAČNÍ TECHNOLOGIE

Paralelní architektury - úvod

Profilová část maturitní zkoušky 2014/2015

Zprovoznění kitu Xilinx Spartan-6 FPGA Industrial Video Processing Kit

O čem byl CHES a FDTC? Jan Krhovják Fakulta informatiky Masarykova univerzita v Brně

UMÍ POČÍTAČE POČÍTAT?

Optika v počítačovém vidění MPOV


architektura mostů severní / jižní most (angl. north / south bridge) 1. Čipové sady s architekturou severního / jižního mostu

Hlavní využití počítačů

Modernizace a inovace výpočetní kapacity laboratoří ITE pro účely strojového učení. Jiří Málek

Paralelní výpočty ve finančnictví

Procesor z pohledu programátora

Přednáška. Správa paměti II. Katedra počítačových systémů FIT, České vysoké učení technické v Praze Jan Trdlička, 2012

G R A F I C K É K A R T Y

Intel Itanium. Referát. Vysoká škola báňská Technická univerzita Ostrava Fakulta elektrotechniky a informatiky Katedra informatiky

Struktura a architektura počítačů (BI-SAP) 10

Aplikovaná numerická matematika

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Využití paralelních výpočtů v geodézii

Postranními kanály k tajemství čipových karet

Využití ICT pro rozvoj klíčových kompetencí CZ.1.07/1.5.00/

MX-10 pixelový částicový detektor

Trénování sítě pomocí učení s učitelem

Základy logického řízení

F6180 Úvod do nelineární dynamiky. F6150 Pokročilé numerické metody FX003 Plánování a vyhodnocování experimentu. F7780 Nelineární vlny a solitony

Transkript:

Neuropočítače speciální výpočetní prostředky pro urychlení výpočtů neuronových sítí implementace zjednodušených algoritmů obvykle celočíselná aritmetika v kombinaci s normováním vstupních vektorů Rozdělení neuropočítačů konstrukce neuropočítačů - konvenční procesory doplněné o speciální instrukce a periferie umožňují významně urychlit výpočty neuronových sítí zvýšení výkonů zařízení - techniky paralelního zpracování jiný přístup - neuročipy základní stavební prvek aproximace neuronu digitální implementace čipy s analogovými čipy s hybridními neurony

Rozdělení neuropočítačů (podle [HEE95] Využití konvenčních procesorů klasické procesory MPU + speciální periferie pro větší výkonnost moderní procesory pro osobní počítače obsahují instrukční rozšíření pro práci s multimédii - lze jej použít s jistými omezeními také pro trénování Kohonenových map

Paralelní (víceprocesorové) systémy pro zvýšení výkonu - několika procesorů současně vhodné např. pro KSOM Samotný algoritmus KSOM SIMD Single Instruction Multiple Data na jednotlivých procesorech se provádí stejný program zpracovávají se různá data porovnání bit po bitu, není třeba sekvenčně hledat minimum

MIMD transputer Multiple Instruction Multiple Data každý procesor vlastní program, vlastní data procesory uspořádané do n-dimenzionálních sítí méně vhodné pro KSOM algoritmus nelze rozdělit na nezávislé paralelní procesy Implementace v systolickém poli využití většího množství jednotek uspořádaných maticově data se šíří tímto polem (maticí) jedním směrem (např.dolů) mezivýsledky se šíří ortogonálně (vpravo) výpočet je iterativní Na obrázku je náčrt funkce výpočtu vzdáleností mezi vstupním vektorem x a vektory neuronů m1- m3. Složky vstupního vektoru jsou distribuovány vertikálně, součiny se sčítají horizontálně. Při úpravě vah se složky vektoru a koeficient učení šíří vertikálně a vektory neuronů m jsou adaptovány lokálně.

snížené nároky na hardware [IEN93b] Paralelní stroj složený z klasických osobních počítačů cluster varianta MIMD stroje jednotlivé procesory nejsou umístěny v jednom čipu ani na jedné základní desce procesory jsou v jednotlivých osobních počítačích spojených pomocí standardizovaného rozhraní (Ethernet) Nevýhoda: relativně nižší výkonnost Výhoda: příznivější cena

Měření výkonnosti neuropočítačů ukazatel pro neuronové sítě : MCPS (Million Connections Per Second) - vyjadřuje výkon neuropočítače ve fázi využívání natrénované sítě MCUPS (Million Connections Update Per Second) - pro výkon ve fázi učení Ukazatele vyjadřují výpočetní sílu počítače, neberou v úvahu vliv konkrétní implementace na konvergenci algoritmu. Nelze porovnávat neuropočítače různých konstrukcí. z porovnání doby potřebné k dosažení určitého stupně uspořádání sítě

MANTRA I - neuropočítač vyvíjený v EPFL v Lausanne [COR94c], [VIR93a], [VIR93b] návrh s ohledem na implementaci jednovrstvých i vícevrstvých neuronových sítí, Hopfieldových sítí a Kohonenových map složení - ze zákaznických obvodů GENES IV v maximální konfiguraci obsahuje matici 40 40 těchto bvodů výkon 200 400 MCPS a 100-200 MCUPS (v závislosti na typu NN) Každý obvod - šestnáct výpočetních jednotek uspořádaných do čtvercové matice Každá jednotka - šest základních operací: 1. násobení matice vah W vstupním vektorem x 2. výpočet druhé mocniny Eukleidovské vzdálenosti 3. Hebbovský zákon učení 4. Kohonenovské učení aktualizace vah 5. hledání největšího elementu vektoru 6. hledání nejmenšího elementu vektoru.

COKOS - COprocessor for KOhonen's Self-organizing map čip speciálně navržený pro podporu Kohonenových map osm paralelních jednotek nazývaných MAB - Memory Arithmetic Board odčítačka + násobička + sčítačka v každé MAP pro uložení mezivýsledků paměť RAM v každé MAP každá MAB jednotka počítá druhou mocninu vzdálenosti vstupního vektoru x a modelu neuronu mi. výsledky jednotlivých jednotek jsou sečteny sčítačkou vítěz je nalezen pomocí WTA (Winner Takes All) jednotky obsahující i separátní paměť pro uložení vzdáleností jednotlivých vektorů

neuropočítač je propojen s osobním počítačem pomocí asynchronního rozhraní součástí systému je software pro práci s neuropočítačem výkon: kolem 16MCUPS váhy neuronů jsou 16-ti bitové NBISOM_25 a NBX vyvinutý speciálně pro zrychlení výpočtů Kohonenových map neuropočítač sestavený z 16-ti zakázkových čipů každý obsahuje matici 5 5 speciálních výpočetních jednotek každá jednotka je vybavena pamětí pro uložení 64 elementů vektoru modelu mi neuronu, jednotkou pro výpočet vzdálenosti (se 14-ti bitovým akumulátorem) a s řídící logikou

upraven pro implementaci v programovatelném hradlovém poli (FPGA) Každá jednotka podporuje mimo základní operace pro výpočet Kohonenových map (výpočet vzdálenosti, hledání minima a adaptace vah) operace pro výpočet U-matic používaných k zobrazení Literatura: [BAR06] Bártů, M.: Analýza možností implementace Kohonenových map. Diplomová práce, FEL ČVUT v Praze, 2006 [COR94a] Cornu T., Ienne P.: Performance of Digital Neurocomputers, In Proceedings of the Fourth International Conference on Microelectronics for Neural Networks and Fuzzy Systems, Turin, Italy, pp 87-93., September 1994.

[HEE95] Heemskerk J.: Overview of Neural Hardware, disertační práce, Unit of Experimental and Theoretical Psychology, Leiden University,The Netherlands, 1995 [IEN93b] Ienne P.: Quantitative Comparison of Architectures for Digital Neuro-Computers, In Proceedings of the International Joint Conference on Neural Networks, Nagoya, Japan, Volume II, pp. 1987-90, October 1993 [IEN94] Ienne P., Viredaz M. A.: Implementation of Kohonen's Self- Organizing Maps on MANTRA I, In Proceedings of the Fourth International Conference on Microelectronics for Neural Networks and Fuzzy Systems, Turin, Italy, pp.l 273-79, September 1994 [KOH01] Kohonen T.: Self-Organizing Maps. Springer-Verlag 2001, 3. vydání,isbn 3-540-67921-9 [POR02a] Porrman M., Witkowski U., Kalte H., Ruckert U.: Implementation of Artifical Neural Networks on a Reconfigurable Hardware Accelerator, In Proceedings of the 10th Euromicro Workshop on Parallel, Distributed and Network-based Processing, Grand Canaria Island, Spain, pp. 243 250, January 2002