Entropie. Tak vznikl (dříve v termodynamice) v informační teorii pojem ENTROPIE.

Podobné dokumenty
SYSTÉMOVÁ METODOLOGIE (VII) Kybernetika. Ak. rok 2011/2012 vbp 1

1. Základy teorie přenosu informací

Softwarové rádio. Zpracoval: Ing. Jiří Sehnal

Algoritmy komprese dat

Teorie informace Obsah. Kybernetika. Radim Farana Podklady pro výuku

Teorie informace Obsah. Kybernetika. Radim Farana Podklady pro výuku

Úvod do teorie informace

KOMPRESE OBRAZŮ. Václav Hlaváč. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání. hlavac@fel.cvut.

Automatizační technika. Obsah

PSK2-5. Kanálové kódování. Chyby

25. DIGITÁLNÍ TELEVIZNÍ SIGNÁL A KABELOVÁ TELEVIZE

Kapitola 1. Signály a systémy. 1.1 Klasifikace signálů

7. Rozdělení pravděpodobnosti ve statistice

KOMPRESE OBRAZŮ. Václav Hlaváč, Jan Kybic. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání.

Aplikovaná informatika. Podklady předmětu Aplikovaná informatika pro akademický rok 2013/2014 Radim Farana. Obsah. Kybernetika

Kódováni dat. Kódy používané pro strojové operace

Informace v počítači. Výpočetní technika I. Ing. Pavel Haluza ústav informatiky PEF MENDELU v Brně haluza@mendelu.cz

Technická kybernetika. Obsah. Principy zobrazení, sběru a uchování dat. Měřicí řetězec. Principy zobrazení, sběru a uchování dat

VY_32_INOVACE_E 15 03

Informace, kódování a redundance

Osnova přednášky. Informace v počítači. Interpretace dat. Údaje, data. Úvod do teorie informace. Výpočetní technika I. Ochrana dat

Statistická termodynamika

ZÁKLADY DATOVÝCH KOMUNIKACÍ

Základní principy přeměny analogového signálu na digitální

Základní komunikační řetězec

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Teorie kódování aneb jak zhustit informaci

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

Informace, kódování a redundance

íta ové sít baseband narrowband broadband

[1] samoopravné kódy: terminologie, princip

Vzdálenost jednoznačnosti a absolutně

Základy rádiové digitální komunikace. Doc. Dr. Ing. Pavel Kovář Katedra radioelektroniky K13137

Binární data. Číslicový systém. Binární data. Klávesnice Snímače polohy, dotykové displeje, myš Digitalizovaná data odvozená z analogového signálu

Samoopravné kódy. Katedra matematiky a Institut teoretické informatiky Západočeská univerzita

Linkové kódy. Podpora kvality výuky informačních a telekomunikačních technologií ITTEL CZ.2.17/3.1.00/36206 PRAHA & EU INVESTUJEME DO VAŠÍ BUDOUCNOSTI

VY_32_INOVACE_IKTO2_0160 PCH

Druhy sdělovacích kabelů: kroucené metalické páry, koaxiální, světlovodné

Kódování signálu. Problémy při návrhu linkové úrovně. Úvod do počítačových sítí. Linková úroveň

Generování pseudonáhodných. Ing. Michal Dorda, Ph.D.

PB169 Operační systémy a sítě

ZÁKLADY DATOVÝCH KOMUNIKACÍ

Komprese dat Obsah. Komprese videa. Radim Farana. Podklady pro výuku. Komprese videa a zvuku. Komprese MPEG. Komprese MP3.

Úvod do zpracování signálů

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.

VY_32_INOVACE_ENI_2.MA_05_Modulace a Modulátory

cv3.tex. Vzorec pro úplnou pravděpodobnost

Náhodné (statistické) chyby přímých měření

Regresní a korelační analýza

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

ednáška a metody digitalizace telefonního signálu Ing. Bc. Ivan Pravda

2. Množiny, funkce. Poznámka: Prvky množiny mohou být opět množiny. Takovou množinu, pak nazýváme systém množin, značí se

Elektrické parametry spojů v číslicových zařízeních

Kódy a kódování dat. Binární (dvojkové) kódy. Kód Aikenův

Digitální signály a kódy

Zabezpečení dat při přenosu

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

12 DYNAMIKA SOUSTAVY HMOTNÝCH BODŮ

Řízení IO přenosů DMA řadičem

Výukové texty. pro předmět. Automatické řízení výrobní techniky (KKS/ARVT) na téma

Výběrové charakteristiky a jejich rozdělení

Základy teorie pravděpodobnosti

1. Statistická analýza dat Jak vznikají informace Rozložení dat

8. Sběr a zpracování technologických proměnných

Moderní technologie ve studiu aplikované fyziky CZ.1.07/2.2.00/ Množiny, funkce

Regresní a korelační analýza

Architektury počítačů a procesorů

Vlastnosti a modelování aditivního

Usuzování za neurčitosti

TECHNICKÁ UNIVERZITA V LIBERCI

BPC2E_C09 Model komunikačního systému v Matlabu

zpravidla předpokládá, že hodnoty intenzity poruch a oprav jsou konstantní.

18A - PRINCIPY ČÍSLICOVÝCH MĚŘICÍCH PŘÍSTROJŮ Voltmetry, A/D převodníky - principy, vlastnosti, Kmitoměry, čítače, fázoměry, Q- metry

Digitální modulace. Podpora kvality výuky informačních a telekomunikačních technologií ITTEL CZ.2.17/3.1.00/36206

Hammingův kód. Vladislav Kosejk. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská Detašované pracoviště Děčín

Výukové texty. pro předmět. Automatické řízení výrobní techniky (KKS/ARVT) na téma

Způsoby realizace této funkce:

Základní jednotky používané ve výpočetní technice

U Úvod do modelování a simulace systémů

PSK2-16. Šifrování a elektronický podpis I

Základy informatiky. Úvod do informatiky. Daniela Szturcová Část převzata z přednášky P. Děrgela

PŘÍSTUPOVÉ METODY KE KOMUNIKAČNÍMU KANÁLU

P13: Statistické postupy vyhodnocování únavových zkoušek, aplikace normálního, Weibullova rozdělení, apod.

Signál v čase a jeho spektrum

Architektura počítačů

6 Algebra blokových schémat

Úvod do informačních a řídicích systémů. lení

Seriové ATA, principy, vlastnosti

Regresní a korelační analýza

Title: IX 6 11:27 (1 of 6)

Automatizace je proces při němž je řídicí funkce člověka nahrazována činností

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Základy a aplikace digitálních. Katedra radioelektroniky (13137), blok B2, místnost 722

Rozhodnutí / Skutečnost platí neplatí Nezamítáme správně chyba 2. druhu Zamítáme chyba 1. druhu správně

1 Co jsou lineární kódy

CW01 - Teorie měření a regulace

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017

KOMBINAČNÍ LOGICKÉ OBVODY

Transkript:

Entropie V polovině dvacátého století byl pojem INFORMACE již ve značné saturaci. CLAUDE ELWOOD SHANNON přemýšlel jak svou veličinu pojmenovat. Tehdy mu John von Neuman údajně řekl: You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it alredy has a name. In the second place, and more important, no one really knows what entropy really is, so in a debate you will always have the advantage. nikdo opravdu neví, co entropie skutečně je, tak v diskusi, budete mít vždy výhodu. Tak vznikl (dříve v termodynamice) v informační teorii pojem ENTROPIE. Použité zdroje: Jiroušek R., Ivánek J., Máša P., Toušek J., Vaněk N.: Principy digitální komunikace. LEDA spol. s r.o., Voznice 2006 http://wapedia.mobi/cs/entropie http://technet.idnes.cz http://is.muni.cz/th/216497/ff_b/bachraty_-_bakalarka.pdf http://www.svadeni.cz http://www.fi.muni.cz/usr/staudek/komprese/komprese_dat.pdf http://user.unob.cz/biolek/vyukavut/skripta/dko.pdf http://cs.wikipedia.org http://vlada.bloguje.cz Zpracoval: Ing. Bc. Miloslav Otýpka Entropie je jedním ze základních a nejdůležitějších pojmů v teorii informace. Setkáváme se s ní všude tam, kde hovoříme o pravděpodobnosti možných stavů daného systému či soustavy. Entropie (neuspořádanost, neurčitost) a redundance (nadbytečnost) velmi úzce souvisí s kompresí dat.

Otec teorie informace Claude Elwood Shannon v roce 1948 definoval entropii (střední hodnotu informace na jeden symbol zprávy) takto: Předpokládáme existenci nějakého systému a současně předpokládáme samostatnou událost (nezávislou na předchozích událostech), která způsobí přechod systému do nového stavu. Předpokládejme n vzájemně se vylučujících stavů x, pravděpodobnost stavu i je p(i), pak entropie stavu x bude: C. E. Shannon tedy navrhl vyjadřovat množství informace v jedné konkrétní zprávě záporným logaritmem její pravděpodobnosti. Jednotkou entropie je jeden bit. Bit je použit pro zprávu, která byla vybrána ze dvou stejně pravděpodobných možností. Počet možností ovlivňuje základ logaritmu. Pro základ 2 je jednotka jeden bit, pro základ e (přirozený logaritmus) je jednotka jeden nat a pro základ 10 jeden Hartley. Uvedená definice předpokládá, že pravděpodobnost jednoho symbolu v textu je nezávislá na pravděpodobnosti předcházejících symbolů. Tato podmínka není splněna pro texty v přirozeném jazyce, neboť některá písmena se vyskytují velmi pravděpodobně pokud jim předchází některá jiná konkrétní písmena. Pokud tedy tato podmínka splněna není, je nutné entropii definovat odlišně. Pro entropii byla zavedena definice statistickým modelem dat, kdy zdrojové jednotky jsou znaky. Pak můžeme zavést modely: Statistický model nultého stupně Každý znak vstupního textu je statisticky nezávislý na jiném znaku. Pravděpodobnosti výskytu všech znaků jsou stejné. Tomuto modelu odpovídá text, který je generován náhodně a přibližují se mu DNA sekvence 1. Statistický model prvního stupně Každý znak vstupního textu je statisticky nezávislý na jiném znaku. Pravděpodobnosti výskytu všech znaků jsou různé. Statistický model druhého stupně Uvedený model zohledňuje pravděpodobnosti výskytu dvojic znaků. Pravděpodobnosti se tedy nepřiřazují dílčím znakům, nýbrž jejich dvojicím. Statistický model n-tého stupně Tento model pracuje s pravděpodobnostmi n-tic znaků. Pokud mají znaky ve zprávě různý počet výskytů, pak statistický model nultého stupně nevede k přesnému stanovení entropie. Pak je třeba použít model vyššího stupně 2. 1 Sekvence DNA (genetická sekvence) je posloupnost písmen představujících primární strukturu molekuly či vlákna DNA, které má kapacitu nést informaci. Používaná písmena A, C, G a T reprezentují čtyři nukleotidy ve vláknu DNA adenin, cytosin, guanin a thymin lišící se typem báze kovalentně vázané k fosfátové páteři. Posloupnost libovolného množství nukleotidů většího než čtyři lze nazývat sekvencí. 2 Pro text v angličtině s mezerou, statistický model nultého stupně odhaduje entropii na 4,75 bitů na znak. Model třetího stupně však tento odhad zpřesňuje na 2,77 bitů na znak.

Shannon ukázal v 50. letech dvacátého století, že všechny komunikační systémy používané v minulosti, přítomnosti i vytvořené později jsou pouze zvláštní případy obecného komunikačního systému na obr. 1. Obr. 1 Shannonovo schéma obecného komunikačního systému. Kodér zdroje provádí kódování zprávy s maximální hospodárností, aby bylo možno pro přenos zprávy použít co nejmenší počet znaků. Kodér tedy minimalizuje redundanci zprávy a současně zvyšuje její entropii (množství informace na jeden znak ). Kodér také může provádět konverzi původního signálu na signál elektrický, případně provádět jeho transformaci do digitální podoby (A/D převodník). Kodér kanálu zabezpečuje spolehlivost přenosu tím, že informační znaky doplňuje znaky přídavnými a to podle určitého algoritmu bezpečnostního kódu. Ten může být buď detekční (příjemce zjistí, že při přenosu došlo k chybě), nebo korekční (příjemce chybu lokalizuje a opraví). Kanál - ostatní transformace signálu při přenosu (modulátor, demodulátor, přenosové médium, rušení atd.). Dekodér kanálu detekuje, nebo i opravuje chyby vzniklé přenosem a rekonstruuje signál, aby odpovídal signálu kodéru zdroje. Dekodér příjemce dekódovanou zprávu upravuje na tvar vhodný pro příjemce. Od geneze Shannonovy koncepce uplynula dlouhá doba a přesto moderní komunikační systémy (DTV, celulární sítě ) jsou stále speciálními případy jeho obecného komunikačního systému. Pokud při přenosu nejsou kladeny extrémní požadavky na spolehlivost přenosu zpráv, nebo je-li úroveň rušení relativně nízká, pak vystačíme s koncepcí podle obr. 1. při současném zabezpečení korekčním kódem. Takové přenosové systémy se nazývají FEC (Forward Error Correction) dopředná korekce chyb.

Obr. 2 Shannonovo schéma obecného komunikačního systému doplněné o zpětnovazební kanál. Pokud se vyžaduje přenos vysoce spolehlivý (např. přenos binárních souborů přes Internet), pak je schéma doplněno kanálem zpětné vazby podle obr. 2. Data jsou zde většinou zabezpečena pouze detekčním kódem. Takové přenosové systémy se označují ARQ (Automatic Request for Repetition) automatická žádost o opakování přenosu. Takové systémy bývají dvojího druhu: 1. Systémy s rozhodovací zpětnou vazbou - DFB (Decision Feedback). Přijímač vyhodnocuje zprávu po daných slovech a posuzuje její věrnost s využitím detekčního kódu. Není-li zjištěna chyba, vyšle přijímač zpětným kanálem vysílači tzv. poděkování ACK (Acknowledgment). Je-li výsledek prověrky negativní, zpětnovazebním kanálem je vyslán příkaz NACK (Negative Acknowledgment) negativní poděkování) k opakování přenosu dané zprávy. Rozhodnutí o případném opakování přenosu tedy vzniká na straně přijímače. Zpětný kanál přenáší pouze jednoduché řídicí příkazy, a proto může být pomalý. Nevýhodou je, že nejsou opraveny chyby, které daný kód není schopen detekovat. Druh kódu je proto třeba volit velmi pečlivě s ohledem na charakter rozložení chyb. 2. Systémy s informační zpětnou vazbou - IFB (Information Feedback). Přímým kanálem jsou vysílána pouze nezabezpečená slova zprávy. Zabezpečující část je ponechána v paměti vysílače. Na základě přijatého slova (které může být narušeno ) je na straně přijímače vypočtena zabezpečující část, která je vyslána zpětným kanálem k přijímači. Zde dojde k porovnání s údajem v paměti. Je-li výsledek komparace negativní, vysílání se opakuje. V opačném případě vyšle vysílač pokyn k uvolnění dat v paměti přijímače a pokračuje ve vysílání dalšího slova. Zpráva, která se posílá zpět a která je odvozena od přijatého slova, se nazývá kvitance. V nejjednodušším případě může být kvitancí celé přijaté slovo. Rozhodnutí o případném opakování přenosu tedy vzniká na straně vysílače. Nevýhodou je, že zpětný kanál musí zabezpečit přenosovou rychlost srovnatelnou s přenosovou rychlostí dopředného kanálu. Další nevýhodou je případné zbytečné opakování vysílání, dojde-li k chybě ve zpětném kanálu. Výhodou je však vysílání pouze nezabezpečených dat. Protože k rozhodování o případné chybě dochází na straně vysílače na základě porovnání atributů vyslaného a přijatého slova, tento systém je značně spolehlivý. Systémy bez zpětného kanálu jsou úspornější na přenosovou rychlost, resp. šířku pásma dopředného kanálu, účinnost zabezpečení přenosu je však menší. Používají se tam, kde je realizace zpětného kanálu obtížná nebo nemožná (např. družicová komunikace). V praxi se rovněž používají systémy kombinované, kdy se zpětný kanál vytváří adaptabilně v závislosti na momentální chybovosti spoje.

Shannonovy teorémy zdrojového a kanálového kódování Z Shannonovy koncepce komunikačního kanálu vyplývá další klasifikace kódů na zdrojové a kanálové kódy. Poznatky je možné slovně shrnout do dvou teorémů. 1. Shannonův teorém zdrojového kódování: Počet bitů, nezbytných k jednoznačnému popisu určitého zdroje dat, se může vhodným kódováním blížit k odpovídajícímu informačnímu obsahu tak těsně, jak je požadováno. Tedy vhodným kódováním je možné zhustit každou zprávu tak, že se její informační obsah může libovolně přiblížit její teoretické informační kapacitě podle Hartleye. 2. Shannonův teorém kanálového kódování (Shannonova věta o kódování v šumovém kanále): Frekvence výskytu chyb v datech přenášených pásmově omezeným kanálem se šumem může být vhodným kódováním dat redukována na libovolně malou hodnotu, pokud je rychlost přenosu informace menší, než činí kapacita přenosového kanálu. Definice entropie V populárních výkladech a učebnicích se často vyskytuje přiblížení entropie jako veličiny udávající míru neuspořádanosti zkoumaného systému. Není to ideální vysvětlení, neboť tato definice používá pojem neuspořádanost, který je však sám nedefinovaný. Vhodnější je intuitivní představa entropie jako míry neurčitosti systému. Zatímco ostrá rozdělení pravděpodobnosti (např. prahování) mají entropii nízkou, pak neostrá nebo rozmazaná rozdělení pravděpodobnosti mají entropii vysokou. Za pravděpodobnostní rozložení s nejvyšší entropií lze považovat normální rozložení pravděpodobnosti. Normální (Gaussovo) rozdělení pravděpodobnosti (obr. 3) je jedno z nejdůležitějších rozdělení pravděpodobnosti spojité náhodné veličiny. Obr. 3 Hustota normálního rozdělení pravděpodobnosti.

Tímto rozdělením pravděpodobnosti se sice neřídí velké množství veličin, ale jeho význam spočívá v tom, že za určitých podmínek dobře aproximuje 3 řadu jiných pravděpodobnostních rozdělení (spojitých i diskrétních). V souvislosti s normálním rozdělením jsou často zmiňovány náhodné chyby, např. chyby měření, způsobené velkým počtem neznámých a vzájemně nezávislých příčin. Proto bývá normální rozdělení také označováno jako zákon chyb. Podle tohoto zákona se také řídí rozdělení některých fyzikálních a technických veličin. Stručně řečeno, entropie je střední hodnota informace jednoho kódovaného znaku. Míra entropie souvisí s problematikou generování sekvence náhodných čísel, protože sekvence naprosto náhodných čísel by měla mít maximální míru entropie. Shannonova entropie také tvoří limit při bezeztrátové kompresi dat, poněkud laicky řečeno: Komprimovaná data nelze beze ztráty informace zhustit více, než dovoluje jejich entropie. Entropie se definuje jako míra neurčitosti (neočekávatelnosti) sdělení. Entropie soustavy je funkcí pravděpodobnosti stavu soustavy. Entropii lze definovat jako střední množství vlastní informace všech realizací jevu. Entropii lze definovat jako souhrnné množství informace o náhodném jevu jako celku. Několik poznámek k entropii 1. Informace je jev, který má buď vysokou, nebo nízkou pravděpodobnost výskytu. Nejmenší množství informace je jeden bit. 1. stav - pokud bude nepravda (0) vyjádřená nulovou pravděpodobností výskytu P = 0 2. stav - pokud bude pravda (1) vyjádřená pravděpodobností výskytu P = 100 Můžeme však také počítat s pravděpodobností 75 %, nebo 12 %. Tyto pravděpodobnosti také vyjadřují určité množství informace. A co pravděpodobnost 50 %? Tak zde vzniká problém. Pokud má jev pravděpodobnost 50 %, pak o jeho výskytu nevíme vůbec nic. Buď nastane, nebo nenastane. Obě šance jsou stejně velké. Pak se ovšem nemůže jednat o informaci! 2. Entropie je definována jako míra neuspořádanosti systému. Pokud vyjádříme entropii pomocí pravděpodobnosti, dostaneme maximální entropii při hodnotě 50 %. (rovnoměrné rozptýlení hmoty nebo energie). 3. Entropie je minimální, pokud je hmota maximálně neuspořádaná. Kdyby se nám povedlo vyhnat vzduch v místnosti na jednu polovinu a na druhé půlce nenechat nic, tak pravděpodobnost toho, že vzduch je na jedné půlce místnosti bude 100 % a pravděpodobnost toho, že vzduch je v druhé půlce místnosti bude 0 %. 3 Aproximace (z lat. ad a proximus - blízký) znamená přiblížení. V matematice znamená aproximace přibližnou hodnotu čísla nebo jednu z možných hodnot čísla, či nahrazení čísla vhodným číslem blízkým. V geometrii se jedná o proložení několika bodů křivkou, přičemž není nutné, aby aproximační křivka přesně procházela zadanými body. (Na rozdíl od interpolace.)

4. Informaci můžeme definovat jako míru uspořádanosti systému. Čím je systém uspořádanější, tím nese větší informaci. Vztah mezi entropií a informací je inverzní. Když množství informace roste, množství entropie klesá. Když množství entropie roste, množství informace klesá. 5. Zákon zničení informace. Informace se působením entropie v čase rozpadá a její množství se samovolně snižuje. Informaci můžeme uchovávat v celku jen za stálého přísunu energie, který eliminuje působení entropie. Příklad 1 Nechť zdroj generuje 4 nezávislé symboly a,b,c,d, s pravděpodobnostmi: Vypočítejte entropii zdroje. Entropie zdroje: Příklad 2 Pro abecedu {a 1, a 2, a 3, a 4,} a tři různá pravděpodobnostní rozložení p 1, p 2, p 3 p 1 (a 1 ) = 0 p 1 (a 2 ) = 1 p 1 (a 3 ) = 0 p 1 (a 4 ) = 0 p 2 (a 1 ) = p 2 (a 2 ) = p 2 (a 3 ) = p 2 (a 4 ) = p 3 (a 1 ) = p 3 (a 2 ) = p 3 (a 3 ) = p 3 (a 4 ) = Vypočítejte Shannonovu entropii (pomocí dvojkového logaritmu). Pro p 1 : H (p 1 ) = 0 Pro p 2 : H (p 2 ) = 2 Obdobně pro p 3 : H (p 3 ) = H p ) = p ( a ) >0= p3 ( ak )log 2 p3( ak ) = Pak platí: ( 3 3 k 7 4

Na závěr něco ze života otce teorie informace. Claude Elwood Shannon (30. dubna 1916, Petoskey, Michigan 24. února 2001, Boston), americký elektronik a matematik, zvaný otec teorie informace. Byl také zakladatelem teorie návrhu digitálních elektrických obvodů. V dětství byl nadšeným radioamatérem. Vystudoval University of Michigan a v roce 1936 se stal asistentem na MIT. Roku 1936 získal magisterský titul za diplomovou práci o využití Booleovy algebry při návrhu reléových sítí. Tím založil nový vědní obor - teorii logických sítí, čímž otevřel prostor pro teorii číslicových počítačů. Později napsal dizertaci, ve které použil podobný postup na genetiku. V roce 1942 nastoupil do Bellových laboratoří, kde působil 15 let a vytvořil zde teorii informace. Ve 45 letech (v roce 1961) odešel do penze. Shannonova myš (obrázek na titulní straně) - první sestrojený učící se mechanismus. Byl to na počítač napojený ocelový vozíček projíždějící bludištěm. Dokázal si zapamatovat správné a nesprávné odbočky. Při druhém pokusu projet bludištěm již netápal a jel k cíli nejkratší cestou za 15 sekund. První jízda, kdy se teprve učil cestu, trvala 60 vteřin. Byla to první ukázka umělé inteligence a učícího se stroje.