Úvod do teorie informace

Podobné dokumenty
Informace v počítači. Výpočetní technika I. Ing. Pavel Haluza ústav informatiky PEF MENDELU v Brně haluza@mendelu.cz

Osnova přednášky. Informace v počítači. Interpretace dat. Údaje, data. Úvod do teorie informace. Výpočetní technika I. Ochrana dat

Teorie informace Obsah. Kybernetika. Radim Farana Podklady pro výuku

Teorie informace Obsah. Kybernetika. Radim Farana Podklady pro výuku

[1] samoopravné kódy: terminologie, princip

Aplikovaná informatika. Podklady předmětu Aplikovaná informatika pro akademický rok 2013/2014 Radim Farana. Obsah. Kybernetika

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Kódováni dat. Kódy používané pro strojové operace

Kódování signálu. Problémy při návrhu linkové úrovně. Úvod do počítačových sítí. Linková úroveň

Automatizační technika. Obsah

Hammingovy kódy. dekódování H.kódů. konstrukce. šifrování. Fanova rovina charakteristický vektor. princip generující a prověrková matice

Kódy pro odstranění redundance, pro zabezpečení proti chybám. Demonstrační cvičení 5 INP

PSK2-5. Kanálové kódování. Chyby

Komprese dat (Komprimace dat)

1. Základy teorie přenosu informací

Informatika Kódování. Obsah. Kód. Radim Farana Podklady předmětu Informatika pro akademický rok 2007/2008

Algoritmy komprese dat

Teorie informace: řešené příklady 2014 Tomáš Kroupa

KOMPRESE OBRAZŮ. Václav Hlaváč, Jan Kybic. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání.

Formáty uložení dat Výpočetní technika I

Teorie informace II: obtížnější řešené příklady 2014 Tomáš Kroupa

23. Matematická statistika

Matematika IV 10. týden Kódování

Komprese dat. Jan Outrata KATEDRA INFORMATIKY UNIVERZITA PALACKÉHO V OLOMOUCI. přednášky

Technická kybernetika. Obsah. Principy zobrazení, sběru a uchování dat. Měřicí řetězec. Principy zobrazení, sběru a uchování dat

KOMPRESE OBRAZŮ. Václav Hlaváč. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání. hlavac@fel.cvut.


ČÍSELNÉ SOUSTAVY PŘEVODY

Teorie informace a kódování (KMI/TIK)

BCH kódy. Alena Gollová, TIK BCH kódy 1/27

Informace, kódování a redundance

Informace, kódování a redundance

1 Co jsou lineární kódy

Kódy a kódování dat. Binární (dvojkové) kódy. Kód Aikenův

Teorie kódování aneb jak zhustit informaci

VY_32_INOVACE_IKTO2_0160 PCH

Vybrané kapitoly z kódování informací

Náhodný pokus Náhodným pokusem (stručněji pokusem) rozumíme každé uskutečnění určitého systému podmínek resp. pravidel.

Projekt z předmětu Kryptografie a počítačová bezpečnost

Zobrazení dat Cíl kapitoly:

Hammingův kód. Vladislav Kosejk. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská Detašované pracoviště Děčín

METODY KÓDOVÁNÍ, ŠIFROVÁNÍ A BEZPEČNOSTI DAT

Generující kořeny cyklických kódů. Generující kořeny. Alena Gollová, TIK Generující kořeny 1/30

Statistika. pro žáky 8. ročníku. úterý, 26. března 13

VÍCEKRITERIÁLNÍ ROZHODOVANÍ

7. Funkce jedné reálné proměnné, základní pojmy

Statistická teorie učení

Obsah. Popis funkcí. RS485/MODBUS-RTU ver Komunikace s převodníkem probíhá na principu MASTER - SLAVE. Protokol MODBUS mát tuto strukturu:

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

[1] samoopravné kódy: terminologie, princip

Samoopravné kódy. Katedra matematiky a Institut teoretické informatiky Západočeská univerzita

Cílem této kapitoly je uvedení pojmu matice a jejich speciálních typů. Čtenář se seznámí se základními vlastnostmi matic a s operacemi s maticemi

PŘEDNÁŠKA PS 6 Přenos dat v počítačových sítích

DSY-6. Přenosový kanál kódy pro zabezpečení dat Základy šifrování, autentizace Digitální podpis Základy měření kvality přenosu signálu

Algoritmus pro generování normálních magických čtverců

Data v počítači. Informační data. Logické hodnoty. Znakové hodnoty

Náhodné chyby přímých měření

Matematika I (KMI/PMATE)

Logaritmy a věty o logaritmech

Odpřednesenou látku naleznete v kapitole 3.3 skript Diskrétní matematika.

8. RSA, kryptografie s veřejným klíčem. doc. Ing. Róbert Lórencz, CSc.

KIS A JEJICH BEZPEČNOST I ZÁKLADY TEORIE INFORMACE DOC. ING. BOHUMIL BRECHTA, CSC.

Kódy pro detekci a opravu chyb. INP 2008 FIT VUT v Brně

7. Rozdělení pravděpodobnosti ve statistice

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:

TEORETICKÁ INFORMÁTIKÁ 2. C Á ST

Teorie informace a kódování (KMI/TIK)

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Digitální signály a kódy

uvedení do problematiky i Bezpečnostní kódy: detekční kódy = kódy zjišťující chyby samoopravné kódy = kódy opravující chyby příklady kódů:

Komunikace v průmyslové organizaci

Samoopravné kódy, k čemu to je

PB169 Operační systémy a sítě

Principy počítačů. Prof. RNDr. Peter Mikulecký, PhD.

Disková pole (RAID) 1

Matice. Předpokládejme, že A = (a ij ) je matice typu m n: diagonálou jsou rovny nule.

Informatika I - 5. doc. Ing. Jan Skrbek, Dr. KIN. Spojení: Ing. Bc. Marian Lamr INN

Aritmetika s didaktikou I.

Exponenciální a logaritmická funkce

Kvantové algoritmy a bezpečnost. Václav Potoček

Odpřednesenou látku naleznete v dodatku A skript Abstraktní a konkrétní lineární algebra.

SHANNONOVA TEORIE TAJNÉ KOMUNIKACE

KÓDOVÁNÍ A KOMPRESE DAT

Číselné vektory, matice, determinanty

IB112 Základy matematiky

Gymnázium Vysoké Mýto nám. Vaňorného 163, Vysoké Mýto

2. Entropie a Informace. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

Disková pole (RAID) 1

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

kryptosystémy obecně další zajímavé substituční šifry klíčové hospodářství kryptografická pravidla Hillova šifra Vernamova šifra Knižní šifra

12 DYNAMIKA SOUSTAVY HMOTNÝCH BODŮ

4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY

1 Teorie informace. Za symboly abecedy A budeme považovat smutně realistické frekvence povelů psovi Hafíkovi uvedené v následující tabulce.

Náhodný vektor a jeho charakteristiky

Fz =a z + a z +...+a z +a z =

Matematika (KMI/PMATE)

Návrh asynchronního automatu

Struktura a architektura počítačů (BI-SAP) 5

Jiří Neubauer. Katedra ekonometrie FEM UO Brno

Mikroprocesorová technika (BMPT)

Transkript:

PEF MZLU v Brně 24. září 2007

Úvod Výměna informací s okolím nám umožňuje udržovat vlastní existenci. Proces zpracování informací je trvalý, nepřetržitý, ale ovlivnitelný. Zabezpečení informací je spojeno s lidským jednáním a je údělem celé společnosti, bez ohledu na vývojový stupeň materiálních podmínek. Problémy se zpracováním informací se prohloubily během 20. století a neexistují lidé, kteří by je všechny byli schopni zpracovat nebo evidovat.

Úvod Využívání a efektivní práce s informacemi vyžaduje o nich něco vědět. Co jsou to informace? Co jsou relevantní informace Jak je získáme a jak zhodnotíme jejich využitelnost? Jak se přenášejí a jak jsou uloženy? Základní podmínkou úspěšnosti jednotlivců je permanentní osvojování nových znalostí vytvořených jinými a tvorba znalostí vlastních. Abychom byli připraveni, musíme mít dostatek informací o informacích a možnostech manipulace s nimi.

Pojem informace Informace je obsah jakéhokoli oznámení, údaje o čemkoli, s určením pro přenos v prostoru a čase. V nejširším slova smyslu je to obsah vztahů mezi materiálními objekty, projevující se změnami těchto objektů. (Terminologický slovník informatiky) Informace je obsah zprávy, sdělení, objasnění, vysvětlení, poučení. (Slovník cizích slov) Informace jsou údaje, čísla, znaky, povely, instrukce, příkazy, zprávy apod. Za informace považujeme také podněty a vjemy přijímané a vysílané živými organismy. (Oborová encyklopedie VT)

Jak informace chápat? Informace z hlediska kvalitativního (obsah sdělení, význam zprávy) tím se zabývá INFORMATIKA Informace z hlediska kvantitativního (množství a jeho měření) tím se zabývá TEORIE INFORMACE

Teorie informace Claude Shannon základy teorie informace, stanovil možnosti měření informačního množství Shannonova definice informace: Informace je míra množství neurčitosti nebo nejistoty o nějakém náhodném ději odstraněná realizací tohoto děje. Informace rozšiřuje okruh znalostí příjemce.

Měření informačního množství Entropie název vypůjčený z fyziky, použitý pro měření informačního množství. Jak kvantifikovat rozšíření okruhu znalostí příjemce? Pravděpodobnost jevu spojeno s individuálními vlastnostmi příjemce (Shannon)

Jevy a jejich realizace Jev náhodný proces s n možnými realizacemi (tah sportky, účast na přednášce, semafor na křižovatce apod.) Realizace jevu jeden projev, získání výsledku (vytažení 6 čísel, konkrétní počet osob na přednášce, svítící zelená na křižovatce apod.)

Požadované vlastnosti funkce pro výpočet množství informace Jev X má n realizací, množství informace je funkcí n. Je-li n = 1, jedná se o jev jistý, množství informace je rovno nule. Jevy X a Y probíhající současně a nezávisle, p(x, y) = p(x) p(y): množství informace je dáno součtem množství jednotlivých jevů: f (x, y) = f (x) + f (y) Jev X má n realizací, jev Y má m realizací. Je-li m > n, pak chceme i f (m) > f (n)

Výpočet vlastní informace Funkce, která vyhovuje uvedeným podmínkám, je logaritmus. I (x) = log n Zde předpokládáme, že pravděpodobnost každé realizace je stejná. Má-li jev n realizací, pak můžeme psát p(x) = 1/n, odsud pak n = 1/p(x)

Výpočet vlastní informace Buď X množina výsledků náhodného děje, x výsledek realizace a p(x) pravděpodobnost tohoto výsledku. Každému x z X pak lze přiřadit reálné číslo I (x) nazývané vlastní informace o výsledku x, pro než platí: I (x) = log p(x), (0 p(x) 1) Číslo I (x) představuje množství informace obsažené ve výsledku x. Základ logaritmu principiálně není podstatný. Ale používají se logaritmy o základu 2. Pak dostáváme výsledek v bitech.

Entropie Jak spočítat informační množství celého jevu? Pomůžeme si shrnutím všech vlastních informací jednotlivých realizací. Předpokládejme, že jev X má n realizací s pravděpodobnostmi X = x 1, x 2,..., x n p(x 1 ), p(x 2 ),..., p(x n )

Výpočet entropie jevu Entropie H(X ) je dána určitou střední hodnotou vlastních informací všech realizací jevů: H(X ) = n p(x i ) log p(x i ) i=1 Entropie zahrnující informační množství celého jevu se nazývá též úplná informace.

Kódování informace Základní podmínkou komunikace je vytvoření signálního komunikačního kanálu. Informaci je pro tento účel nutné transformovat, tj. vyjádřit v jiném jazyce s jinou abecedou. Přiřazení znaků jedné abecedy znakům jiné abecedy se nazývá kódování, inverzní postup pak dekódování. Předpis, který toto přiřazování definuje, se nazývá kód.

Kvalita kódování, redundance Z hlediska optimálního přenosu je efektivní kód, který obsahuje minimální počet informačních prvků, každý znak kódu tedy má maximální entropii. Kvantitativně je hospodárnost kódu vyčíslitelná redundancí (nadbytečností), podle vztahu: R = 1 H/H max

Způsoby kódování Rovnoměrné kódování každému znaku je přiřazen stejně dlouhý kód. Obvykle je jednodušší, rychlejší na zpracování, ale méně hospodárné. (Baudot) Nerovnoměrné kódování každému znaku je přiřazen jinak dlouhý kód. Pro konstrukci a zpracování je obtížnější, může však být maximálně hospodárné. (Shannon-Fano, Huffman)

Příklady kódů Zdroj produkuje 4 znaky A, B, C, D. Předpokládáme pravděpodobnosti znaků: znak p 1 (x) kód 1 kód 2 A 0,25 00 0 B 0,25 01 10 C 0,25 10 110 D 0.25 11 111 znak p 2 (x) kód 1 kód 2 A 0,5 00 0 B 0,25 01 10 C 0,125 10 110 D 0.125 11 111

Shannon-Fanův algoritmus 1 Znaky uspořádáme sestupně podle pravděpodobnosti jejich výskytu. 2 Vypočteme kumulativní pravděpodobnosti. 3 Rozdělíme znaky do dvou skupin tak, aby jejich součtové pravděpodobnosti byly blízké 0,5. 4 Krok 3 opakujeme tak dlouho, dokud existují vícečlenné skupiny znaků.

Shannon-Fanův algoritmus znak p(x) s skupiny výsledek x 1 0,30 1,00 0 00 x 2 0,24 0,70 0 1 01 x 3 0,20 0,46 0 10 x 4 0,15 0,26 1 0 110 x 5 0,11 0,11 1 1 111

Huffmanovo kódování 1 Sečteme poslední dvě pravděpodobnosti a vytvoříme nový sloupec pravděpodobností, kde ty dvě, které jsme sčítali nahradí jejich součet. 2 Všechny pravděpodobnosti v novém sloupci seřadíme sestupně podle velikosti a propojí se spojnicemi s hodnotami v původním sloupci. 3 Spojnice pravděpodobností p(x n 1 ) a p(x n ) se sjednotí, ale předtím přiřadíme p(x n ) bit kódového slova s hodnotou 1 a p(x n 1 ) bit s hodnotou 0. 4 Takto postupujeme, dokud se součet posledních dvou čísel nerovná 1. 5 Závěrečné kódování každého slova pak probíhá po spojnicích jako sbírání zapsaných bitů kódového slova tak, že jdeme po spojnicích a zapisujeme všechny bity, které po cestě potkáme. 6 Nakonec se celý zápis obrátí odzadu dopředu a výsledkem je kódové slovo pro danou událost.

Huffmanovo kódování 1.

Huffmanovo kódování 2.

Výsledný kód událost p(x i ) kód x 1 0.35 00 x 2 0.15 010 x 3 0.13 011 x 4 0.09 101 x 5 0.09 110 x 6 0.08 111 x 7 0.05 1001 x 8 0.04 10000 x 9 0.02 10001

Zabezpečení informace při přenosu Detekce chyby zabezpečení paritou kontrolní součet (CRC) Hammingův kód Zabezpečení proti neoprávněnému čtení šifrování podepisování

Zabezpečení paritou Ke každému úseku dat je připojen další bit, který svou hodnotou doplňuje počet binárních jedniček na počet lichý nebo sudý (sudá/lichá parita) 10010011 10110101 100100110 101101011

Kontrolní součet Data se rozdělí na úseky požadované délky (8, 16, 32 bitů) a tyto úseky se sečtou po bitech bez přenosu. Vzniklý úsek dat se připojí k datům přenášeným. 10100010 Data 11010111 11010101 01100110 11000110 CRC

Závěr Děkuji za pozornost Dotazy?