Informace v počítači. Výpočetní technika I. Ing. Pavel Haluza ústav informatiky PEF MENDELU v Brně haluza@mendelu.cz



Podobné dokumenty
Osnova přednášky. Informace v počítači. Interpretace dat. Údaje, data. Úvod do teorie informace. Výpočetní technika I. Ochrana dat

Úvod do teorie informace

1. Základy teorie přenosu informací

Formáty uložení dat Výpočetní technika I

Kódováni dat. Kódy používané pro strojové operace

PSK2-5. Kanálové kódování. Chyby

Teorie informace Obsah. Kybernetika. Radim Farana Podklady pro výuku

Teorie informace Obsah. Kybernetika. Radim Farana Podklady pro výuku

Kódování signálu. Problémy při návrhu linkové úrovně. Úvod do počítačových sítí. Linková úroveň

Informace, kódování a redundance

Automatizační technika. Obsah

KOMPRESE OBRAZŮ. Václav Hlaváč, Jan Kybic. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání.

Algoritmy komprese dat

Kódy pro odstranění redundance, pro zabezpečení proti chybám. Demonstrační cvičení 5 INP

Aplikovaná informatika. Podklady předmětu Aplikovaná informatika pro akademický rok 2013/2014 Radim Farana. Obsah. Kybernetika

Náhodné (statistické) chyby přímých měření

[1] samoopravné kódy: terminologie, princip

KOMPRESE OBRAZŮ. Václav Hlaváč. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání. hlavac@fel.cvut.

Technická kybernetika. Obsah. Principy zobrazení, sběru a uchování dat. Měřicí řetězec. Principy zobrazení, sběru a uchování dat

Náhodné chyby přímých měření

Informatika Kódování. Obsah. Kód. Radim Farana Podklady předmětu Informatika pro akademický rok 2007/2008

Kódy a kódování dat. Binární (dvojkové) kódy. Kód Aikenův

Informace, kódování a redundance

Hammingovy kódy. dekódování H.kódů. konstrukce. šifrování. Fanova rovina charakteristický vektor. princip generující a prověrková matice

Teorie informace: řešené příklady 2014 Tomáš Kroupa

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

DSY-6. Přenosový kanál kódy pro zabezpečení dat Základy šifrování, autentizace Digitální podpis Základy měření kvality přenosu signálu

7. Rozdělení pravděpodobnosti ve statistice

Téma 2: Pravděpodobnostní vyjádření náhodných veličin

VY_32_INOVACE_E 15 03

Matematická morfologie

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Chyby měření 210DPSM

Digitální signály a kódy

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Číselné vyjádření hodnoty. Kolik váží hrouda zlata?

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Úvod do zpracování signálů

0.1 Úvod do matematické analýzy

Matematika I (KMI/PMATE)

1 Co jsou lineární kódy

Komprese dat (Komprimace dat)

Data v počítači. Informační data. Logické hodnoty. Znakové hodnoty

Základní komunikační řetězec

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.

Hammingův kód. Vladislav Kosejk. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská Detašované pracoviště Děčín

uvedení do problematiky i Bezpečnostní kódy: detekční kódy = kódy zjišťující chyby samoopravné kódy = kódy opravující chyby příklady kódů:

Definice 7.2. Nejmenší přirozené číslo k, pro které je graf G k-obarvitelný, se nazývá chromatické číslo (barevnost) grafu G a značí se χ(g).

Algoritmy I. Číselné soustavy přečíst!!! ALGI 2018/19

Kapitola 1. Signály a systémy. 1.1 Klasifikace signálů

Komprese dat. Jan Outrata KATEDRA INFORMATIKY UNIVERZITA PALACKÉHO V OLOMOUCI. přednášky

Jak v Javě primitivní datové typy a jejich reprezentace. BD6B36PJV 002 Fakulta elektrotechnická České vysoké učení technické


Základní definice Aplikace hašování Kontrukce Známé hašovací funkce. Hašovací funkce. Jonáš Chudý. Úvod do kryptologie

13 Barvy a úpravy rastrového

Matematika (KMI/PMATE)

BCH kódy. Alena Gollová, TIK BCH kódy 1/27

Jednoduché cykly

Matematika IV 10. týden Kódování

Zobrazení dat Cíl kapitoly:

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

PB169 Operační systémy a sítě

7. Funkce jedné reálné proměnné, základní pojmy

Disková pole (RAID) 1

Vzdálenost jednoznačnosti a absolutně

ednáška a metody digitalizace telefonního signálu Ing. Bc. Ivan Pravda

B) výchovné a vzdělávací strategie jsou totožné se strategiemi vyučovacího předmětu Matematika.

+ 1. doc. Ing. Jan Skrbek, Dr. - KIN. Konzultace: pondělí nebo dle dohody. Spojení:

Gymnázium Vysoké Mýto nám. Vaňorného 163, Vysoké Mýto

C2115 Praktický úvod do superpočítání

PŘEDNÁŠKA PS 6 Přenos dat v počítačových sítích

Pravděpodobnost a statistika

Téma 2: Pravděpodobnostní vyjádření náhodných veličin

1 Mnohočleny a algebraické rovnice

SIGNÁLY A LINEÁRNÍ SYSTÉMY

4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY

0.1 Funkce a její vlastnosti

SIGNÁLY A LINEÁRNÍ SYSTÉMY

Mikroprocesorová technika (BMPT)

ALGEBRA. Téma 4: Grupy, okruhy a pole

pro bakalářské studijní programy fyzika, informatika a matematika 2018, varianta A

I. D i s k r é t n í r o z d ě l e n í

Způsoby realizace této funkce:

MATURITNÍ TÉMATA Z MATEMATIKY

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}.

p(x) = P (X = x), x R,

Fyzikální korespondenční seminář MFF UK

Úvod do informatiky. Miroslav Kolařík

Kombinatorika, pravděpodobnost a statistika, Posloupnosti a řady

Příklad. Řešte v : takže rovnice v zadání má v tomto případě jedno řešení. Pro má rovnice tvar

Náhodný pokus Náhodným pokusem (stručněji pokusem) rozumíme každé uskutečnění určitého systému podmínek resp. pravidel.

MODELY ŘÍZENÍ ZÁSOB nákladově orientované modely poptávka pořizovací lhůta dodávky předstih objednávky deterministické stochastické

Čísla, reprezentace, zjednodušené výpočty

Kvantové algoritmy a bezpečnost. Václav Potoček

KIS A JEJICH BEZPEČNOST I ZÁKLADY TEORIE INFORMACE DOC. ING. BOHUMIL BRECHTA, CSC.

Kapitola Základní množinové pojmy Princip rovnosti. Dvě množiny S a T jsou si rovny (píšeme S = T ) prvek T je také prvkem S.

Teorie informace II: obtížnější řešené příklady 2014 Tomáš Kroupa

Statistická teorie učení

Transkript:

.. Informace v počítači Ing. Pavel Haluza ústav informatiky PEF MENDELU v Brně haluza@mendelu.cz

Osnova přednášky Úvod do teorie informace základní pojmy měření množství informace ve zprávě přenos a kódování dat Ochrana dat parita kontrolní součet samoopravný kód

Základní pojmy Údaje, data Údaje hodnota libovolné reálné veličiny příklad: 167 cm Data zprávy nebo výroky, které mohou (ale nemusí) snižovat neznalost daného jevu (neurčitost, entropii) jakékoli vyjádření (reprezentace) skutečnosti, schopné přenosu, uchování, interpretace či zpracování sama o sobě jsou nehmotná, i když pro jejich uložení potřebujeme hmotné médium příklad: Průměrná výška ženy je 167 cm.

Základní pojmy Interpretace dat Data v počítači jedničky a nuly Pro člověka musí být zobrazeny Zobrazení stejné posloupnosti jedniček a nul může být provedeno nekonečně mnoha způsoby Interpretace zobrazení přisouzení významu zobrazeným údajům Datový typ definován oborem povolených hodnot a kolekcí povolených operací Implementace přisouzení datového typu posloupnosti binárních hodnot v paměti počítače Modeluje objektivní realitu hodnoty jsou zobrazeny pro vstup i výstup

Základní pojmy Informace, znalosti Informace snižují neurčitost a vyvolávají změnu stavu či chování příjemce změna stavu po přijetí zprávy je tím větší, čím větším je informace pro příjemce překvapením množství informace ve zprávě je relativní vzhledem k určitému příjemci a určité situaci každou informaci lze považovat za součást dat, ale každá data nemusí obsahovat informaci Znalosti ucelený komplex informací o nějaké objektivní realitě výsledek poznávacího procesu, předpoklad uvědomělé činnosti, umožňují porozumět skutečnosti příklad: Průměrná žena je docela malá.

Základní pojmy Jak informaci chápat? Kvalitativní hledisko získávání, uchovávání, zpracování a přenos informací zkoumá informatika Kvantitativní hledisko množství informace ve zprávě a jeho měření kódování a dekódování zpráv přenos zpráv zkoumá teorie informace

Základní pojmy Pojem informace Mnoho různých definic podle toho, co autoři definice považovali za nejdůležitější Informace je obsah jakéhokoli oznámení, údaje o čemkoli, s určením pro přenos v prostoru a čase. V nejširším slova smyslu je to obsah vztahů mezi materiálními objekty, projevující se změnami těchto objektů Informace je obsah zprávy, sdělení, objasnění, vysvětlení, poučení Informace jsou údaje, čísla, znaky, povely, instrukce, příkazy, zprávy apod. Za informace považujeme také podněty a vjemy přijímané a vysílané živými organismy

Základní pojmy Informační systém Systém komplex prvků a vazeb ve vzájemné interakci (definice v teorii systémů) Informační systém dynamický systém, jehož vazby tvoří informace a prvky systému jsou místa transformace informací Úkol IS poskytovat potřebné informace v požadovaném rozsahu, lhůtách, podrobnostech i formě Dílčí úlohy IS sběr informací, přenos, redukce, archivace, zpracování, distribuce

Měření množství informace ve zprávě Měření množství informace ve zprávě Americký fyzik Claude Shannon (1916 2001) položení základů teorie informace stanovení možností měření informačního množství Informace je míra množství neurčitosti nebo nejistoty o nějakém náhodném ději odstraněná realizací tohoto děje Množství informace ve zprávě tedy měříme podle toho, o kolik se sníží neurčitost nebo nejistota, když zprávu přijmeme a pochopíme Pojem informační entropie míra neurčitosti, která se po přijetí zprávy odstraňuje a vyjadřuje tak množství informace obsažené ve zprávě

Měření množství informace ve zprávě Měření množství informace ve zprávě Jak kvantifikovat rozšíření okruhu znalostí příjemce? Pravděpodobnost zprávy Jev spojeno s individuálními vlastnostmi příjemce (Shannon) náhodný proces s n možnými realizacemi tah sportky, účast na přednášce, semafor na křižovatce aj. Realizace jevu jeden projev, získání výsledku vytažení 6 čísel, konkrétní počet osob na přednášce, svítící zelená na semaforu aj.

Měření množství informace ve zprávě Požadované vlastnosti funkce pro výpočet množství informace Jev X má n realizací, množství informace je tedy funkcí n Jediná realizace jevu X pokud n = 1, jedná se o jev jistý množství informace je rovno nule Současně probíhající nezávislé jevy X a Y p(x, y) = p(x) p(y) množství informace je dáno součtem množství informace u jednotlivých jevů: f(x, y) = f(x) + f(y) Porovnání pro dva odlišné jevy X a Y jev X má n realizací, jev Y má m realizací je-li m > n, pak chceme i f(m) > f(n)

Měření množství informace ve zprávě Výpočet vlastní informace Jediná funkce, která vyhovuje uvedeným podmínkám, je logaritmus I(x) = log n Předpokládáme, že pravděpodobnost každé realizace je stejná, tedy p(x) = 1 n, kde n je počet realizací Úpravou dostáváme n = 1 p(x)

Měření množství informace ve zprávě Výpočet vlastní informace Vlastní informace výsledku realizace x I(x) = log p(x) Základ logaritmu principiálně není podstatný, ale používají se logaritmy o základu 2 (výsledek v bitech) I(x) = log 2 p(x) Vlastní informace se nazývá též částečná informace Počítání s logaritmy log a x = log b x log b a = log a b log b x log 2 x = log 2 10 log x = 3,322 log x

Měření množství informace ve zprávě Aplikace vlastní informace Výpočet vlastní informace v bitech = výpočet prostoru pro zadaný počet hodnot příklad: barevná hloubka rastrového obrazu Velikost prostoru v počítači pro určitý údaj hodnocení úspornosti příklad: uložení 6 tažených čísel Sportky znaky, čísla malá, velká, souhrn, kódování Příklad: věta s nezávislými současně vzniklými realizacemi (Auto 1B1 8877 černé barvy přijelo na křižovatku Horní Jasanová v 19:10 hodin.)

Měření množství informace ve zprávě Řešený příklad Jakou vlastní informaci nese zpráva o výsledku losování určitých 5 čísel z 20? Aplikujeme vztah pro výpočet vlastní informace I(x) = log 2 p(x) Jaká je pravděpodobnost vytažení konkrétní pětice čísel? Dosadíme do vzorce 1 1 I(x) = log 2 ) = log 2 15 504 = 13,92 ( 20 5 V jakých jednotkách je výsledek a co nám výsledná hodnota říká?

Měření množství informace ve zprávě Entropie Jak spočítat informační množství celého jevu? Pomůžeme si shrnutím všech vlastních informací jednotlivých realizací Předpokládejme, že jev X má n realizací x 1, x 2,, x n s pravděpodobnostmi p(x 1 ), p(x 2 ),, p(x n ) Entropie H(X) je dána určitou střední hodnotou vlastních informací všech realizací jevů H(X) = n p(x i ) log 2 p(x i ) = i=1 n p(x i ) I(x i ) i=1 Entropie zahrnující informační množství celého jevu se nazývá též úplná informace

Měření množství informace ve zprávě Příklad Počáteční situace soutěžící v televizní soutěži má na výběr ze čtyř odpovědí na zadanou otázku správnou odpověď však nezná a dokonce ani žádnou variantu nepreferuje Nejistota soutěžícího v této situaci správná odpověď může být se stejnou pravděpodobností kterákoliv ze čtyř nabídnutých p(x i ) = 0,25 Hodnota informační entropie soutěžícího H(X) = 4 0,25 log 2 0,25 = log 2 0,25 = 2

Měření množství informace ve zprávě Příklad Následující situace soutěžící požádá o nápovědu 50 na 50 na výběr už má jen dvě varianty Nejistota soutěžícího v této situaci správná odpověď může být se stejnou pravděpodobností kterákoliv ze dvou nabídnutých p(x i ) = 0,5 Hodnota informační entropie soutěžícího H(X) = 2 0,5 log 2 0,5 = log 2 0,5 = 1

Měření množství informace ve zprávě Příklad Následující situace soutěžící si vybere jednu variantu a odpoví na otázku vzápětí se dozví správnou odpověď Nejistota soutěžícího v této situaci správnou odpověď soutěžící v tuto chvíli již zná p(x) = 1 Hodnota informační entropie soutěžícího H(X) = 1 log 2 1 = log 2 1 = 0

Měření množství informace ve zprávě Odvození nejmenší míry informace Entropie nabývá nejvyšší hodnoty při stejné pravděpodobnosti výskytu realizací x i Potom platí H(X) = log 2 p(x) Nejmenší jednotka míry informace (1 bit) je odvozena od entropie jevu, který má jen dvě stejně pravděpodobné realizace H(X) = 2 0,5 log 2 0,5 = log 2 0,5 = 1

Měření množství informace ve zprávě Řešený příklad Vypočtěte entropii zdroje zpráv: Na železničním návěstidle je možné nastavit návěstí Stůj, které svítí 80 % času, a pak dalších 5 různých návěští s přibližně stejnou pravděpodobností Možné realizace jevu X x 1 p(x 1 ) = 0,8 x 2 p(x 2 ) = 0,04 x 3 p(x 3 ) = 0,04 x 4 p(x 4 ) = 0,04 x 5 p(x 5 ) = 0,04 x 6 p(x 6 ) = 0,04 Dosadíme do vzorce H(X) = (0,8 log 2 0,8 + 5 0,04 log 2 0,04). = 1,19

Přenos a kódování dat Signál Základní podmínkou využívání informací je jejich výměna mezi příjemci a odesilateli Informace má nehmotnou povahu, přenos musí být proveden nějakým fyzikálním procesem Nositelem informace nazýváme signál Fyzikální veličinu lze matematicky modelovat funkcí prostoru a času s = f(x, y, z, t), kde s je libovolný signál vyjádřený nezávislými souřadnicemi místa (x, y, z) a časovým parametrem t

Přenos a kódování dat Dělení signálů dle časového parametru t Spojité každý časový okamžik signálu nese určitou informaci telefonní rozhovory Diskrétní signál nese informaci jen v některých okamžicích telegrafní zprávy Statické hodnota t nemá vliv na hodnotu signálu kniha, mapa Dynamické hodnota signálu závisí na hodnotě t televizní přenos

Přenos a kódování dat Diskrétní signál vzorkování před přenosem po přenosu zkresleno rekonstrukce

Přenos a kódování dat Komunikace Informační vazba vzniká mezi dvěma systémy tvorbou, přenosem a výměnou informace Informační vazba umožňuje tzv. komunikaci Komunikace jedním směrem tvoří jednoduchý komunikační řetěz zdroj kódování přenosový kanál dekódování cíl

Přenos a kódování dat Kódování informace Základní podmínkou komunikace je vytvoření signálního komunikačního kanálu Informaci je pro tento účel nutné transformovat, tj. vyjádřit v jiném jazyce s jinou abecedou Přiřazení znaků jedné abecedy znakům jiné abecedy se nazývá kódování, inverzní postup pak dekódování Předpis, který toto přiřazování definuje, se nazývá kód

Přenos a kódování dat Kvalita kódování, redundance Z hlediska optimálního přenosu je efektivní kód, který obsahuje minimální počet informačních prvků, každý znak kódu tedy má maximální entropii Maximální entropii má kód, kde všechny znaky abecedy jsou stejně možné a jejich vzájemný výskyt není závislý Kvantitativně je hospodárnost kódu vyčíslitelná redundancí (nadbytečností) R = 1 H H max H entropie jazyka H max maximální entropie při použití téže abecedy Redundance evropských jazyků je větší než 0,5 (0,75?)

Přenos a kódování dat Způsoby kódování Rovnoměrné kódování každému znaku je přiřazen stejně dlouhý kód obvykle je jednodušší, rychlejší na zpracování, ale méně hospodárné Baudotovo kódování Nerovnoměrné kódování každému znaku je přiřazen jinak dlouhý kód pro konstrukci a zpracování je obtížnější, může však být maximálně hospodárné Shannon Fanovo kódování, Huffmanovo kódování

Přenos a kódování dat Příklady kódů Zdroj produkuje 4 nezávislé znak A, B, C, D Stejné pravděpodobnosti Znak p 1 (x) Kód 1 Kód 2 A 0,250 00 0 B 0,250 01 10 C 0,250 10 110 D 0,250 11 111 Který kód je efektivnější? Různé pravděpodobnosti Znak p 2 (x) Kód 1 Kód 2 A 0,500 00 0 B 0,250 01 10 C 0,125 10 110 D 0,125 11 111

Přenos a kódování dat Zjištění efektivnosti kódu výpočtem entropie Znak p(x) Výskytů Kód 1 0 1 Kód 2 0 1 A 0,250 250 00 500 0 0 250 0 B 0,250 250 01 250 250 10 250 250 C 0,250 250 10 250 250 110 250 500 D 0,250 250 11 0 500 111 0 750 Zpráva 1000 1000 1000 750 1500 ( 1000 H(X 1 ) = 2000 log 1000 2 2000 + 1000 ) 2000 log 1000 2 = 1,000 2000 ( 750 H(X 2 ) = 2250 log 2 750 2250 + 1500 2250 log 2 ) 1500 = 0,918 2250

Přenos a kódování dat Zjištění efektivnosti kódu výpočtem entropie Znak p(x) Výskytů Kód 1 0 1 Kód 2 0 1 A 0,500 500 00 1000 0 0 500 0 B 0,250 250 01 250 250 10 250 250 C 0,125 125 10 125 125 110 125 250 D 0,125 125 11 0 250 111 0 375 Zpráva 1000 1375 625 875 875 ( 1375 H(X 1 ) = 2000 log 1375 2 2000 + 625 ) 2000 log 625 2 = 0,896 2000 ( 875 H(X 2 ) = 1750 log 2 875 1750 + 875 1750 log 2 ) 875 = 1,000 1750

Přenos a kódování dat Výpočet optimálního kódu Shannon Fanův algoritmus Znaky uspořádáme sestupně podle pravděpodobnosti jejich výskytu Vypočteme kumulativní pravděpodobnosti Rozdělíme znaky do dvou skupin tak, aby jejich součtové pravděpodobnosti byly blízké 0,5 Předchozí krok opakujeme tak dlouho, dokud existují vícečlenné skupiny znaků

Přenos a kódování dat Shannon Fanův algoritmus Znak p(x) s(x) Skupiny Výsledek x 1 0,30 1,00 0 00 0 x 2 0,24 0,70 1 01 x 3 0,20 0,46 0 10 x 4 0,15 0,26 1 0 110 1 x 5 0,11 0,11 1 111 ( 139 H(X) = 246 log 139 2 246 + 107 ) 246 log 107 2 = 0,988 246 R = 1 0,988 1 = 0,012

Ochrana dat Proč zabezpečovat? Při přenosu může nastat chyba vlivem technické nedokonalosti přenosového kanálu Při přenosu může nepovolaná osoba číst přenášená data Při přenosu může nepovolaná osoba modifikovat přenášená data

Ochrana dat Zabezpečení proti technickým nedokonalostem přenosu Chyba změna 0 1 nebo 1 0 Násobnost chyby počet chyb v jednotce dat jednonásobná chyba například jedna chyba v přeneseném bytu dvojnásobná chyba, vícenásobná chyba četnost chyb s násobností obvykle prudce klesá (např. 0,001/s; 0,000 03/s) četnost chyb je velmi relativní, záleží na zařízení

Ochrana dat Detekce chyby Detekce chyby zjištění, že v přeneseném úseku nastala chyba, není však známo přesné místo Možnosti detekce parita kontrolní součet Obojí na podobném principu detekce chyb s lichou násobností jednoduchá realizace široké použití

Ochrana dat Parita Detekce parita Parita doplnění binárních jedniček na sudý počet sudá parita lichý počet lichá parita Jednoduchá parita jeden paritní bit Kombinovaná parita více paritních bitů Příklady: jednoduchá parita realizovaná devátým bitem (operační paměť) sudá: 01010110 0 lichá: 01010110 1 jednoduchá parita realizovaná osmým bitem (Internet) sudá: 01010110 lichá: 11010110 kombinovaná parita pracuje na stejném principu, ale paritních bitů je vícenásobná (první čtveřice, druhá, liché bity, sudé bity) sudá: 01011001 0011

Ochrana dat Kontrolní součet Detekce kontrolní součet Kontrolní součet přídavný údaj vypočtený z dat zvoleným způsobem a kontrolovaný stejným postupem na přijímací straně Používají se různé varianty pro různé účely podélná parita CRC (Cyclic Redundancy Check) hashování (otisk prstu, miniatura) MD5 (Message Digest Algorithm) SHA (Secure Hash Algorithm)

Ochrana dat Kontrolní součet Podélná parita Operace aritmetického součtu bez přenosu do vyššího řádu (XOR) 01101010 11001011 00101010 10001011 Každý bit kontrolního součtu doplňuje počet binárních jedniček v příslušném řádu na sudý počet Proto se kontrolnímu součtu někdy říká podélná parita

Ochrana dat Kontrolní součet Oprava chyb Detekce místa chyby pak stačí provést opravu inverzí příslušného bitu Jednoduchá detekce kombinovanou paritou nebo kombinací příčné a podélné parity Složitější detekce použitím samoopravného kódu

Ochrana dat Kontrolní součet Kombinace parit Chyba se projeví v několika místech podle hodnoty paritních bitů lze zjistit místo chyby 01101010 01001011 10101010 10001011 01101010 01011011 10101010 10001011

Ochrana dat Samoopravný kód Samoopravný kód Kód schopný detekovat místo chyby Příklad: Hammingův kód založen na existenci povolených a zakázaných kódových kombinací Hammingova vzdálenost určuje se pro dvě hodnoty a je rovna počtu rozdílných bitů x = 011010111010 y = 001010101110 h = 3

Ochrana dat Samoopravný kód Princip Hammingova kódu Povolené hodnoty kódové kombinace, které mají od sebe navzájem Hammingovu vzdálenost minimálně k Zakázané hodnoty všechny ostatní kódové kombinace, jejich podstatně více než povolených Přenos kódové informace získá-li se po přenosu zakázaná kombinace, buď je detekována chyba, nebo se podle Hammingovy vzdálenosti určí nejbližší povolená hodnota

Ochrana dat Samoopravný kód Detekce a oprava chyby Kód (část): povolené hodnoty vyznačeny, k = 4 100101101010 100101101000 100101101001 100101101101 100101100101 Přenos: 100101100101 100101100101 OK 100101100101 100101101101 Oprava 100101100101 100101101001 Detekce Násobnost chyby < k/2... oprava, násobnost = k/2... detekce