Klasifikace podle nejbližších sousedů Nearest Neighbour Classification [k-nn]
|
|
- Kamila Žáková
- před 6 lety
- Počet zobrazení:
Transkript
1 Klasifikace podle nejbližších sousedů Nearest Neighbour Classification [k-nn] Michal Houdek, Tomáš Svoboda, Tomáš Procházka 6. června
2 Obsah 1 Úvod 3 2 Definice a postup klasifikace 3 3 Příklady použití Příklad použití 1-NN Příklad použití 3-NN Vlastnosti k-nn klasifikátoru Klady k-nn klasifikátoru Zápory k-nn klasifikátoru Urychlení k-nn klasifikace Sofistikovaný algoritmus vyhledání nejbližších k-sousedů Vyloučení vzorků, které neovlivňují klasifikaci (G. Toussaint) Vyloučení pomocí Voroniova diagramu Aproximační metody Kondenzace (condensing) - Devijer, Kittler Kondenzace trénovací množiny pro 1-NN Editace trénovací množiny Alogoritmus editace trénovací množiny Asymptotická analýza Asymptotická chyba k-nn klasifikátoru Maximum chyby P NN Chyba k-nn klasifikátoru Příklad - Porovnání Bayesovského a 1-NN klasifikátoru 12 2
3 1 Úvod Klasifikace podle nejbližších sousedů spadá mezi neparametrické metody klasifikace. Tyto metody jsou založeny na podstatně slabších předpokladech než metody parametrické. Nepředpokládáme znalost tvaru pravděpodobnostních charakteristik tříd. Metoda nejbližšího souseda je založena na hledání přímo aposteriorní 1 pravděpodobnosti. Je myšlenkovým rozšířením metody klasifikace podle nejbližší vzdálenosti od etalonu. Dalším význačným zástupcem neparametrických metod klasifikace je metoda Parzenových okének, která aproximuje z dat hustotu pravděpodobnosti. Touto metodou se ale nebudeme dále zabývat. 2 Definice a postup klasifikace Známe trénovací množinu {(x i, ω i )} i=1,..,k. Kde x i je vzorek, kterému je přiřazena třída ω i a K je velikost trénovací množiny. Pro neznámý prvek x hledáme x k takové, že x k x = min x i x i=1,..,k. Prvek zařadíme do stejné třídy, do jaké náleží x k. Nejčastější je klasifikace podle jednoho souseda (1-NN), ale existují i klasifikace pro obecně k sousedů. 3 Příklady použití 3.1 Příklad použití 1-NN Zjistíme vzdálenosti všech prvků trénovací množiny od neznámého prvku. Vybereme ten prvek trénovací množiny, který je nejblíže a neznámý prvek klasifikujeme do stejné třídy. V našem případě je nejblíže prvek 2. třídy neznámý prvek klasifikujeme jako prvek 2. třídy (viz obr. 1). 3.2 Příklad použití 3-NN Kolem neznámého prvku vytvoříme hyperkouli, která obsahuje právě tři nejbližší prvky trénovací množiny. Neznámý prvek klasifikujeme do té třídy, 1 mající zkušenostní povahu 3
4 Obrázek 1: Popis klasifikace 1-NN která je v hyperkouli zastoupena největším počtem prvků. V našem případě klasifikujeme neznámý prvek do 1. třídy (viz obr. 2). Při použití metod k-nn pro k>1 je velmi důležitá volba k. Pro dvě třídy volíme k vždy liché (kvůli jednoznačnosti rozhodování) pro více tříd mohou nastat situace, kdy nelze jednoznačně rozhodnout. Obrázek 2: Popis klasifikace 3-NN 4 Vlastnosti k-nn klasifikátoru 4.1 Klady k-nn klasifikátoru triviální návrh a implementace slouží jako dobrá referenční metoda v aplikacích často vychází P NN (ε) P neur. (ε) - chyby metod k-nn a Neuronové sítě jsou srovnatelné 4
5 4.2 Zápory k-nn klasifikátoru pro 1-NN platí P NN (ε) > P (ε) a to i při velké trénovací množině, P (ε) je chyba Bayesovského klasifikátoru, ale lim K P NN (ε) < 2.P (ε) - asymptotickou chybu 2 můžeme dále zmenšit použitím editace trénovací množiny (viz dále) pomalé rozhodování, ale existují i rychlé vyhledávací algoritmy (viz níže) vysoká paměťová náročnost, ale možnost kondenzace trénovací množiny (viz níže) závislý na metrice. - záleží na měřítku potřeba normalizovat žádná generalizace Vapnik - Červoněnkisova dimenze je chyba na trénovací množině je 0, tj. přestože na trénovací množině získáme nulovou chybu klasifikace, nelze vyjadřit jaká chyba nastane na testovacích datech - může být jakákoliv 5 Urychlení k-nn klasifikace 5.1 Sofistikovaný algoritmus vyhledání nejbližších k- sousedů klasický problém výpočetní geometrie (computation geometry) postupy rychlejší než O(logN), pro d 3 =2,..,k k-d stromy - data trénovací množiny setřídíme podle jedné souřadnice, nalezneme medián a podle něj rozdělíme data na dvě množiny. Vzniklé podmnožiny opět dělíme podle další souřadnice. Takto postupujeme dokud nezískáme buňky obsahující právě jeden bod. Při půlení množin střídáme cyklicky souřadnice podle kterých množiny půlíme. Při klasifikaci nových bodů postupujeme následovně: 1. Nalezneme buňku do které patří nový bod. 2 chyba při velikosti trénovací množiny jdoucí k 3 d je dimenze prostoru vzorků 5
6 2. Změříme vzdálenost nového bodu od bodu ležícího v dané buňce a vzdálenosti od všech hranic buňky. Pokud bod trénovací množiny leží blíže než všechny hranice, nalezli jsme nejbližšího souseda a algoritmus končí. 3. V případě, že něktreré hranice jsou blíž, než bod trénovací množiny musíme prohledat i buňky za těmito hranicemi. Obrázek 3: k-d strom 5.2 Vyloučení vzorků, které neovlivňují klasifikaci (G. Toussaint) Vyloučení pomocí Voroniova diagramu Voroniův diagram vytváříme následovně. Nejprve nalezneme hrany Voronoiova diagramu. Mezi dvěma prvky množiny existuje Voronoiova hrana právě tehdy když existuje bod, který je od těchto dvou prvků stejně daleko a všechny ostatní prvky množiny leží od tohoto bodu dál. Mezi takovými dvěma prvky vedeme stěnu tak, že oba prvky jsou podle ní osově souměrné. Spojnice těchto prvků je na stěnu kolmá a stěna jí protíná v polovině délky. Spojením stěn vzniknou Voronoiovy buňky kolem každého bodu, viz Obrázek 4. Lze dokázat, že vyloučením buněk, jejichž Voronoiova buňka sousedí pouze s buňkami vzorku stejné třídy se nezmění rozhodovací nadplocha. Tím dosáhneme zrychlení klasifikace. Nevýhodou Voronoiova diagramu je jednak složitost jeho výpočtu, která je rovna O(NlogN + N d/2 ) a také fakt, že pro dimenze výrazně větší než 1 leží téměř všechny body poblíž rozhodovací nadplochy. Vyloučených bodů je tedy málo a tím se výhoda Voronoiova diagramu ztrácí. 6
7 Obrázek 4: Voroniův diagram Aproximační metody Například lze použít místo Voroniova grafu Gabrielův graf. Jeho složitost je O(N 2 ) 5.3 Kondenzace (condensing) - Devijer, Kittler Metody kondenzace jsou iterativní a aproximační. Aproximační metody nejsou optimální, ale nezvětšují chybu klasifikátoru. Jsou jednodušší na výpočet Kondenzace trénovací množiny pro 1-NN vlož do seznamu A náhodně vybraný vzorek, ostaní vzorky z trénovací množiny vlož do seznamu B. a) klasifikuj vzorky z B metodou 1-NN s trénovací množinou A b) je-li x i klasifikován nesprávně, přesuň x i z B do A došlo-li v předchozím kroku při průchodu celým seznamem B k přesunu, zopakuj předchozí krok. Výstupem algoritmu je množina A což je kondenzovaná trénovací množina pro 1-NN. Tato metoda nedává při týchž datech vždy stejnou rozhodovací nadplochu, závisí na inicializaci. Každá z možných rozhodovacích nadploch je ale stejně vhodná a platná. Na obrázcích 5 a 6 je příklad kondenzace trénovací množiny. 7
8 Obrázek 5: Příklad kondenzace - počáteční dvourozměrná data. Tečkovaná čára znázorňuje rozhodovací nadplochu Bayesovského klasifikátoru. 6 Editace trénovací množiny Cílem editace je snížení chyby P NN (ε), ne zrychlení postupu klasifikace. Jedná se o vyloučení prvků z trénovací množiny, které podle hustoty baysovské pravděpodobnosti vnášejí chybu do klasifikace (samostatné prvky jedné třídy, obklopené prvky z jiné třídy). Tyto prvky jsou většinou chyby měření nebo odchylky od typických zástupců. 6.1 Alogoritmus editace trénovací množiny náhodně rozdělíme trénovací množinu S n na dvě poloviny S n1 a S n2, S n = S n1 + S n2 klasifikujeme vzorky z S n1 metodou k-nn. S n2 používáme jako tréno- 8
9 Obrázek 6: Příklad kondenzace - zkondenzovaná trénovací množina. Plnou čarou je znázorněna rozhodovací nadplocha NN klasifikátoru. Je patrné, že v místech, kde se rozhodovací nadplochy rozcházejí, je malá pravděpodobnost výskytu dat. vací množinu. vzorky, které nebyly správně klasifi- vyeditujeme (vyloučíme) z S n1 kovány v předchozím kroku vzniklou množinu S n 1 použijeme ke klasifikaci metodou k-nn 6.2 Asymptotická analýza P edit (ε) = P (ε) 1 P (ε) 1 P knn (ε) Je-li P knn (ε) << 1 (např. 0,05), pak je editovaný 1-NN quasi-bayesovský, tj. téměř nerozlišitelný od Bayesovského klasifikátoru. Je třeba vzít v úvahu, že platí P knn (ε) > P (ε) a proto je zlomek vždy o kousek větší než 1. 9
10 7 Asymptotická chyba k-nn klasifikátoru Chyba klasifikace nejbližšího souseda při K vzorcích: P NN (ε) = lim P K NN K (ε) Střední hodnota průměru asymptotické chyby: P NN (ε) = P NN (ε x)p(x)dx x K (ε x) = {}}{{}}{ PK NN (ε x, x k) p(x k x) dx k P NN Je-li počet vzorků velmi vysoký je pravděpodobnost, že x k sousedem s x, funkcí jejich vzdálenosti: je nejbližším K >> 1 p(x k x) = δ(x k x) Pravděpodobnost, že jak x, tak x k jsou ze stejné třídy jako ω r: P (ω r, ω r x, x k ) = P (ω r x)p (ω r x k ) Chybná klasifikace pak nutně nastává v případech pro než x a x k nejsou ze stejné třídy: PK NN(ε x, x k ) = 1 R P (ω r x)p (ω r x k ) Po zpětném dosazení do předchozích vztahů získáme: P NN (ε x) = lim P K NN K (ε x) = 1 [1 R P (ω r x)p (ω r x k)]δ(x k x)dx k = R P 2 (ω r x) Asymptotická chyba je pak vyjádřena: P NN (ε) = [1 R P 2 (ω r x)]p(x)dx 10
11 7.1 Maximum chyby P NN Lze dokázat (metodou Lagrangeových multiplikátorů), že P NN (ε) nabývá maxima, když P (ω s x) = 1 P (ωr x) R 1 = P (ε x) R 1 s r P (ω s x) = 1 P (ε x) s = r tj. když je pro všechny třídy stejná chyba klasifikace. Potom R ( ) 2 P 2 (ω r x) = [1 P (ε x)] 2 + (R 1) P (ε x) R 1 po úpravě pravé strany rovnice R což vede k hledanému tvaru P 2 (ω r x) = 1 2P (ε x) + P 2 (ε x) + P 2 (ε x) R 1 P NN (ε x) = 1 R P 2 (ω r x) = 2P (ε x) R P 2 (ε x) R 1 který udává chybu odhadu pro konkrétní x. Abychom získali P NN (ε) musíme integrovat přes všechna x. Zde si pomůžeme vyjádřením rozptylu, z něhož vyplyne převod jinak problematického členu P 2 (ε x). var{p (ε x)} = x [P (ε x) P (ε)]2 p(x)dx = P 2 (ε x)p(x)dx P 2 (ε) > 0 Vidíme tedy, že P 2 (ε) < P 2 (ε x)p(x)dx a můžeme tedy naší rovnici přepsat nerovnicí P NN (ε) 2P (ε) R P 2 (ε) R 1 Závěrem pak můžeme zopakovat již dříve uvedenou a nyní dokázanou vlastnost P (ε) P NN (ε) 2P (ε) Vztah mezi chybou Bayesovského klasifikátoru a asymptotickou chybou metody nejbližšího souseda přehledně znázorňuje Obrázek 7. 11
12 Obrázek 7: Vztah mezi chybou Bayesovského klasifikátoru a asymptotickou chybou metody nejbližšího souseda 7.2 Chyba k-nn klasifikátoru Platí, že chyba metody nejbližších sousedů klesá s počtem nejbližších sousedů a dále ji lze snížit editací trénovací množiny, jak bylo uvedeno výše. P NN (ε) P knn (ε) P 3NN (ε) P 1NN (ε) 2P (ε) P knn (ε) P (ε) + P 1NN kπ 8 Příklad - Porovnání Bayesovského a 1-NN klasifikátoru P (ω 1 x) = 0, 6 P (ω 2 x) = 0, 2 P (ω 3 x) = 0, 2 Bayesovská chyba: Asymptotická chyba: P (ε x) = 1 max ω i (P (ω i x)) = 1 0, 6 = 0, 4 P NN (ε x) = 1 ω i P 2 (ω i x) = 1 (0, , , 04) = 0, 56 12
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
Úloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
5. Lokální, vázané a globální extrémy
5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,
Obsah přednášky Jaká asi bude chyba modelu na nových datech?
Obsah přednášky Jaká asi bude chyba modelu na nových datech? Chyba modelu Bootstrap Cross Validation Vapnik-Chervonenkisova dimenze 2 Chyba skutečná a trénovací Máme 30 záznamů, rozhodli jsme se na jejich
Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.
Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.
Statistická teorie učení
Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální
Kybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
Řešení příkladu - klasifikace testovacího subjektu podle minimální vzdálenosti:
Řešení příkladu - klasifikace testovacího subjektu podle minimální vzdálenosti: Postup: I) zvolení metriky pro výpočet vzdáleností dvou bodů II) zvolení metriky pro určení vzdálenosti mezi dvěma množinami
Státnice odborné č. 20
Státnice odborné č. 20 Shlukování dat Shlukování dat. Metoda k-středů, hierarchické (aglomerativní) shlukování, Kohonenova mapa SOM Shlukování dat Shluková analýza je snaha o seskupení objektů do skupin
Pravděpodobně skoro správné. PAC učení 1
Pravděpodobně skoro správné (PAC) učení PAC učení 1 Výpočetní teorie strojového učení Věta o ošklivém kačátku. Nechť E je klasifikovaná trénovací množina pro koncept K, který tvoří podmnožinu konečného
UČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
Geometrické vyhledávání
mnohoúhelníky a jejich vlastnosti lokalizace bodu vůči konvexnímu mnohoúhelníku rozhodnutí, zda je bod vnitřní či vnější lokalizace bodu vůči nekonvexnímu mnohoúhelníku rozhodnutí, zda je bod vnitřní či
Kombinatorická minimalizace
Kombinatorická minimalizace Cílem je nalézt globální minimum ve velké diskrétní množině, kde může být mnoho lokálních minim. Úloha obchodního cestujícího Cílem je najít nejkratší cestu, která spojuje všechny
Rozhodnutí / Skutečnost platí neplatí Nezamítáme správně chyba 2. druhu Zamítáme chyba 1. druhu správně
Testování hypotéz Nechť,, je náhodný výběr z nějakého rozdělení s neznámými parametry. Máme dvě navzájem si odporující hypotézy o parametrech daného rozdělení: Nulová hypotéza parametry (případně jediný
Voronoiův diagram. RNDr. Petra Surynková, Ph.D. Univerzita Karlova v Praze Matematicko-fyzikální fakulta
12 RNDr., Ph.D. Katedra didaktiky matematiky Univerzita Karlova v Praze Matematicko-fyzikální fakulta petra.surynkova@mff.cuni.cz http://surynkova.info Definice V( P) nad množinou bodů P { p v rovině 1,
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
Neparametrické odhady hustoty pravděpodobnosti
Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické
X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní
..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III
Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost
Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru.
1 Statistické odhady Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru. Odhad lze provést jako: Bodový odhad o Jedna číselná hodnota Intervalový
NÁHODNÁ VELIČINA. 3. cvičení
NÁHODNÁ VELIČINA 3. cvičení Náhodná veličina Náhodná veličina funkce, která každému výsledku náhodného pokusu přiřadí reálné číslo. Je to matematický model popisující více či méně dobře realitu, který
AVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.
0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
Hledáme lokální extrémy funkce vzhledem k množině, která je popsána jednou či několika rovnicemi, vazebními podmínkami. Pokud jsou podmínky
6. Vázané a absolutní extrémy. 01-a3b/6abs.tex Hledáme lokální extrémy funkce vzhledem k množině, která je popsána jednou či několika rovnicemi, vazebními podmínkami. Pokud jsou podmínky jednoduché, vyřešíme
Algoritmizace prostorových úloh
INOVACE BAKALÁŘSKÝCH A MAGISTERSKÝCH STUDIJNÍCH OBORŮ NA HORNICKO-GEOLOGICKÉ FAKULTĚ VYSOKÉ ŠKOLY BÁŇSKÉ - TECHNICKÉ UNIVERZITY OSTRAVA Algoritmizace prostorových úloh Grafové úlohy Daniela Szturcová Tento
pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.
3.1 Základy teorie pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti. Co se dozvíte Náhodný pokus a náhodný jev. Pravděpodobnost, počítání s pravděpodobnostmi.
Detekce kartografického zobrazení z množiny
Detekce kartografického zobrazení z množiny bodů Tomáš Bayer Katedra aplikované geoinformatiky Albertov 6, Praha 2 bayertom@natur.cuni.cz Abstrakt. Detekce kartografického zobrazení z množiny bodů o známých
Odhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
Chyby měření 210DPSM
Chyby měření 210DPSM Jan Zatloukal Stručný přehled Zdroje a druhy chyb Systematické chyby měření Náhodné chyby měření Spojité a diskrétní náhodné veličiny Normální rozdělení a jeho vlastnosti Odhad parametrů
Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma
Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky
Téma 2: Pravděpodobnostní vyjádření náhodných veličin
0.025 0.02 0.015 0.01 0.005 Nominální napětí v pásnici Std Mean 140 160 180 200 220 240 260 Std Téma 2: Pravděpodobnostní vyjádření náhodných veličin Přednáška z předmětu: Pravděpodobnostní posuzování
Příklad 1. Řešení 1a. Řešení 1b ŘEŠENÉ PŘÍKLADY Z M1B ČÁST 5
Příklad 1 Najděte totální diferenciál d (h) pro h=(h,h ) v příslušných bodech pro následující funkce: a) (,)= cos, =1; b) (,)=ln( + ), =2; 0 c) (,)=arctg(), =1; 0 1 d) (,)= +, =1; 1 Řešení 1a Máme nalézt
Náhodné chyby přímých měření
Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.
8 Střední hodnota a rozptyl
Břetislav Fajmon, UMAT FEKT, VUT Brno Této přednášce odpovídá kapitola 10 ze skript [1]. Také je k dispozici sbírka úloh [2], kde si můžete procvičit příklady z kapitol 2, 3 a 4. K samostatnému procvičení
Algoritmy a struktury neuropočítačů ASN P3
Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností
Výpočet nového stavu je závislý na bezprostředně předcházejícím stavu (může jich být i více, zde se však omezíme na jeden).
Počáteční úloha Při simulace vývoje systému v čase používáme jednoduché zásady: Spojitý čas nahradíme posloupností časových okamžiků t 0, t 1, t 2, t 3,, t i,. Interval mezi následujícími časovými okamžiky
1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.
VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:
Bayesovské metody. Mnohorozměrná analýza dat
Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A
Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů
Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci
15. T e s t o v á n í h y p o t é z
15. T e s t o v á n í h y p o t é z Na základě hodnot náhodného výběru činíme rozhodnutí o platnosti hypotézy o hodnotách parametrů rozdělení nebo o jeho vlastnostech. Rozeznáváme dva základní typy testů:
EXTRÉMY FUNKCÍ VÍCE PROMĚNNÝCH
EXTRÉMY FUNKCÍ VÍCE PROMĚNNÝCH ÚLOHY ŘEŠITELNÉ BEZ VĚTY O MULTIPLIKÁTORECH Nalezněte absolutní extrémy funkce f na množině M. 1. f(x y) = x + y; M = {x y R 2 ; x 2 + y 2 1} 2. f(x y) = e x ; M = {x y R
Usuzování za neurčitosti
Usuzování za neurčitosti 25.11.2014 8-1 Usuzování za neurčitosti Hypotetické usuzování a zpětná indukce Míry postačitelnosti a nezbytnosti Kombinace důkazů Šíření pravděpodobnosti v inferenčních sítích
10. N á h o d n ý v e k t o r
10. N á h o d n ý v e k t o r 10.1. Definice: Náhodný vektor. Uspořádanou n tici (X 1, X 2,..., X n ) náhodných veličin X i, 1 i n, nazýváme náhodným vektorem. Poznámka: Pro jednoduchost budeme zavádět
Konstrukce relace. Postupně konstruujeme na množině všech stavů Q relace i,
[161014-1204 ] 11 2.1.35 Konstrukce relace. Postupně konstruujeme na množině všech stavů Q relace i, kde i = 0, 1,..., takto: p 0 q právě tehdy, když bud p, q F nebo p, q F. Dokud i+1 i konstruujeme p
Téma 2: Pravděpodobnostní vyjádření náhodných veličin
0.05 0.0 0.05 0.0 0.005 Nominální napětí v pásnici Std Mean 40 60 80 00 0 40 60 Std Téma : Pravděpodobnostní vyjádření náhodných veličin Přednáška z předmětu: Spolehlivost a bezpečnost staveb 4. ročník
14. přednáška. Přímka
14 přednáška Přímka Začneme vyjádřením přímky v prostoru Přímku v prostoru můžeme vyjádřit jen parametricky protože obecná rovnice přímky v prostoru neexistuje Přímka v prostoru je určena bodem A= [ a1
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka
4.2.3 ŠÍŘE FREKVENČNÍHO PÁSMA CHOROVÉHO ELEMENTU A DISTRIBUČNÍ FUNKCE VLNOVÝCH NORMÁL
4.2.3 ŠÍŘE FREKVENČNÍHO PÁSMA CHOROVÉHO ELEMENTU A DISTRIBUČNÍ FUNKCE VLNOVÝCH NORMÁL V předchozích dvou podkapitolách jsme ukázali, že chorové emise se mohou v řadě případů šířit nevedeným způsobem. Připomeňme
3. Optimalizace pomocí nástroje Řešitel
3. Optimalizace pomocí nástroje Řešitel Rovnováha mechanické soustavy Uvažujme dvě různé nehmotné lineární pružiny P 1 a P 2 připevněné na pevné horizontální tyči splývající s osou x podle obrázku: (0,0)
Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou
PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII
PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII V úvodu analytické geometrie jsme vysvětlili, že její hlavní snahou je popsat geometrické útvary (body, vektory, přímky, kružnice,...) pomocí čísel nebo proměnných.
676 + 4 + 100 + 196 + 0 + 484 + 196 + 324 + 64 + 324 = = 2368
Příklad 1 Je třeba prověřit, zda lze na 5% hladině významnosti pokládat za prokázanou hypotézu, že střední doba výroby výlisku je 30 sekund. Přitom 10 náhodně vybraných výlisků bylo vyráběno celkem 540
Algoritmus. Cílem kapitoly je seznámit žáky se základy algoritmu, s jeho tvorbou a způsoby zápisu.
Algoritmus Cílem kapitoly je seznámit žáky se základy algoritmu, s jeho tvorbou a způsoby zápisu. Klíčové pojmy: Algoritmus, vlastnosti algoritmu, tvorba algoritmu, vývojový diagram, strukturogram Algoritmus
II. Zakresli množinu bodů, ze kterých vidíme úsečku délky 3 cm v zorném úhlu větším než 30 0 a menším než 60 0.
Ukázky typových maturitních příkladů z matematiky..reálná čísla. 3} x R; I. Zobrazte množiny A = {x є 3} < + x R; B = {x є II. Zapište ve tvaru zlomku číslo, 486.Komplexní čísla. I. Určete a + b, a - b,
KGG/STG Statistika pro geografy
KGG/STG Statistika pro geografy 5. Odhady parametrů základního souboru Mgr. David Fiedor 16. března 2015 Vztahy mezi výběrovým a základním souborem Osnova 1 Úvod, pojmy Vztahy mezi výběrovým a základním
9 Kolmost vektorových podprostorů
9 Kolmost vektorových podprostorů Od kolmosti dvou vektorů nyní přejdeme ke kolmosti dvou vektorových podprostorů. Budeme se zabývat otázkou, kdy jsou dva vektorové podprostory na sebe kolmé a jak to poznáme.
Hloubka dat. a její použití pro klasifikaci
Hloubka dat a její použití pro klasifikaci Daniel Hlubinka, Lukáš Kotík, Ondřej Vencálek, Stanislav Nagy a Miroslav Šiman Univerzita Karlova v Praze Matematicko-fyzikální fakulta Katedra pravděpodobnosti
Numerické metody 6. května FJFI ČVUT v Praze
Extrémy funkcí Numerické metody 6. května 2018 FJFI ČVUT v Praze 1 Úvod Úvod 1D Více dimenzí Kombinatorika Lineární programování Programy 1 Úvod Úvod - Úloha Snažíme se najít extrém funkce, at už jedné
cv3.tex. Vzorec pro úplnou pravděpodobnost
3 cvičení - pravděpodobnost 2102018 18cv3tex n i=1 Vzorec pro úplnou pravděpodobnost Systém náhodných jevů nazýváme úplným, jestliže pro něj platí: B i = 1 a pro i k je B i B k = 0 Jestliže je (Ω, A, P
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2014
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 204 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
Hledání kořenů rovnic jedné reálné proměnné metoda půlení intervalů Michal Čihák 23. října 2012
Hledání kořenů rovnic jedné reálné proměnné metoda půlení intervalů Michal Čihák 23. října 2012 Problém hledání kořenů rovnice f(x) = 0 jeden ze základních problémů numerické matematiky zároveň i jeden
9. T r a n s f o r m a c e n á h o d n é v e l i č i n y
9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).
Úvod do teorie odhadu. Ing. Michael Rost, Ph.D.
Úvod do teorie odhadu Ing. Michael Rost, Ph.D. Náhodný výběr Náhodným výběrem ze základního souboru populace, která je popsána prostřednictvím hustoty pravděpodobnosti f(x, θ), budeme nazývat posloupnost
Derivace goniometrických. Jakub Michálek,
Derivace goniometrických funkcí Jakub Michálek, Tomáš Kučera Shrnutí Odvodí se základní vztahy pro derivace funkcí sinus a cosinus za pomoci věty o třech limitách, odvodí se také dvě důležité limity. Vypočítá
CVIČNÝ TEST 15. OBSAH I. Cvičný test 2. Mgr. Tomáš Kotler. II. Autorské řešení 6 III. Klíč 15 IV. Záznamový list 17
CVIČNÝ TEST 15 Mgr. Tomáš Kotler OBSAH I. Cvičný test 2 II. Autorské řešení 6 III. Klíč 15 IV. Záznamový list 17 I. CVIČNÝ TEST VÝCHOZÍ TEXT K ÚLOZE 1 Je dána čtvercová mřížka, v níž každý čtverec má délku
ALGORITMY A DATOVÉ STRUKTURY
Název tématického celku: Cíl: ALGORITMY A DATOVÉ STRUKTURY Metodický list č. 1 Časová složitost algoritmů Základním cílem tohoto tematického celku je vysvětlení potřebných pojmů a definic nutných k popisu
maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést
Úlohy k zamyšlení 1. Zdůvodněte, proč třetí řádek Hornerova schématu pro vyhodnocení polynomu p v bodě c obsahuje koeficienty polynomu r, pro který platí p(x) = (x c) r(x) + p(c). 2. Dokažte, že pokud
Vytěžování znalostí z dat
Vytěžování znalostí z dat Department of Computer Systems Faculty of Information Technology Czech Technical University in Prague Přednáška 5: Hodnocení kvality modelu BI-VZD, 09/2011 MI-POA Evropský sociální
Funkce v ıce promˇ enn ych Extr emy Pˇredn aˇska p at a 12.bˇrezna 2018
Funkce více proměnných Extrémy Přednáška pátá 12.března 2018 Zdroje informací Diferenciální počet http://homen.vsb.cz/~kre40/esfmat2/fceviceprom.html http://www.studopory.vsb.cz/studijnimaterialy/sbirka_uloh/pdf/7.pdf
Stavový model a Kalmanův filtr
Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,
b) Maximální velikost zrychlení automobilu, nemají-li kola prokluzovat, je a = f g. Automobil se bude rozjíždět po dobu t = v 0 fg = mfgv 0
Řešení úloh. kola 58. ročníku fyzikální olympiády. Kategorie A Autoři úloh: J. Thomas, 5, 6, 7), J. Jírů 2,, 4).a) Napíšeme si pohybové rovnice, ze kterých vyjádříme dobu jízdy a zrychlení automobilu A:
h n i s k o v v z d á l e n o s t s p o j n ý c h č o č e k
h n i s k o v v z d á l e n o s t s p o j n ý c h č o č e k Ú k o l : P o t ř e b : Změřit ohniskové vzdálenosti spojných čoček různými metodami. Viz seznam v deskách u úloh na pracovním stole. Obecná
8.1. Definice: Normální (Gaussovo) rozdělení N(µ, σ 2 ) s parametry µ a. ( ) ϕ(x) = 1. označovat písmenem U. Její hustota je pak.
8. Normální rozdělení 8.. Definice: Normální (Gaussovo) rozdělení N(µ, ) s parametry µ a > 0 je rozdělení určené hustotou ( ) f(x) = (x µ) e, x (, ). Rozdělení N(0; ) s parametry µ = 0 a = se nazývá normované
7. Rozdělení pravděpodobnosti ve statistice
7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,
TEORIE PRAVDĚPODOBNOSTI. 2. cvičení
TEORIE RAVDĚODONOSTI 2. cvičení Základní pojmy Klasická def. Statistická def. Geometrická def. odmíněná prav. ayesův teorém Test Základní pojmy Náhodný pokus - je každý konečný děj, jehož výsledek není
Systém rizikové analýzy při sta4ckém návrhu podzemního díla. Jan Pruška
Systém rizikové analýzy při sta4ckém návrhu podzemního díla Jan Pruška Definice spolehlivos. Spolehlivost = schopnost systému (konstrukce) zachovávat požadované vlastnos4 po celou dobu životnos4 = pravděpodobnost,
Testování hypotéz. 1. vymezení základních pojmů 2. testování hypotéz o rozdílu průměrů 3. jednovýběrový t-test
Testování hypotéz 1. vymezení základních pojmů 2. testování hypotéz o rozdílu průměrů 3. jednovýběrový t-test Testování hypotéz proces, kterým rozhodujeme, zda přijmeme nebo zamítneme nulovou hypotézu
Matematické modelování dopravního proudu
Matematické modelování dopravního proudu Ondřej Lanč, Alena Girglová, Kateřina Papežová, Lucie Obšilová Gymnázium Otokara Březiny a SOŠ Telč lancondrej@centrum.cz Abstrakt: Cílem projektu bylo seznámení
11. cvičení z PSI prosince hodnota pozorovaná četnost n i p X (i) = q i (1 q), i N 0.
11 cvičení z PSI 12-16 prosince 2016 111 (Test dobré shody - geometrické rozdělení Realizací náhodné veličiny X jsme dostali následující četnosti výsledků: hodnota 0 1 2 3 4 5 6 pozorovaná četnost 29 15
Výpočetní geometrie Computational Geometry
Datové struktury a algoritmy Část 11 Výpočetní geometrie Computational Geometry Petr Felkel 20.12.2005 Úvod Výpočetní geometrie (CG) Příklady úloh Algoritmické techniky paradigmata řazení - jako předzpracování
Hledání kořenů rovnic jedné reálné proměnné metoda sečen Michal Čihák 23. října 2012
Hledání kořenů rovnic jedné reálné proměnné metoda sečen Michal Čihák 23. října 2012 Opakování rovnice přímky Úloha: Určete rovnici přímky procházející body A[a, f(a)] a B[b, f(b)], kde f je funkce spojitá
Náhodné (statistické) chyby přímých měření
Náhodné (statistické) chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně
x 0; x = x (s kladným číslem nic nedělá)
.. Funkce absolutní hodnota Předpoklady: 08, 07 x - zničí znaménko čísla, všechna čísla změní na nezáporná Jak vyjádřit matematicky? Pomocí číselné osy: x je vzdálenost obrazu čísla na číselné ose od počátku.
Definice globální minimum (absolutní minimum) v bodě A D f, jestliže X D f
Výklad Globální extrémy mají stejný význam jako u funkcí jedné proměnné. Hledáme je bud na celém definičním oboru dané funkce, nebo na předem zadané podmnožině definičního oboru. Definice 6..1. Řekneme,
PRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodná proměnná Náhodná veličina slouží k popisu výsledku pokusu. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáme. Přesto bychom chtěli tento pokus
Úvod do mobilní robotiky AIL028
md at robotika.cz, zbynek.winkler at mff.cuni.cz http://robotika.cz/guide/umor07/cs 27. listopadu 2007 1 Mapa světa Exaktní plánování 2 3 Plánování s otáčením Mapa světa - příklad Obsah Mapa světa Exaktní
2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2
Výpočet transformačních koeficinetů vybraných 2D transformací Jan Ježek červen 2008 Obsah Odvození transformačního klíče vybraných 2D transformací 2 Meto vyrovnání 2 2 Obecné vyjádření lineárních 2D transformací
Diskrétní náhodná veličina. November 12, 2008
Diskrétní náhodná veličina November 12, 2008 (Náhodná veličina (náhodná proměnná)) Náhodná veličina (nebo též náhodná proměnná) je veličina X, jejíž hodnota je jednoznačně určena výsledkem náhodného pokusu.
Téma 22. Ondřej Nývlt
Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené
4.3.3 Základní goniometrické vzorce I
4.. Základní goniometrické vzorce I Předpoklady: 40 Dva vzorce, oba známe už z prváku. Pro každé R platí: + =. Důkaz: Použijeme definici obou funkcí v jednotkové kružnici: T sin() T 0 - cos() S 0 R - Obě
Definice Tečna paraboly je přímka, která má s parabolou jediný společný bod,
5.4 Parabola Parabola je křivka, která vznikne řezem rotační kuželové plochy rovinou, jestliže odchylka roviny řezu od osy kuželové plochy je stejná jako odchylka povrchových přímek plochy a rovina řezu
4.3.3 Goniometrické nerovnice I
4 Goniometrické nerovnice I Předpoklady: 40 Pedagogická poznámka: Nerovnice je stejně jako rovnice možné řešit grafem i jednotkovou kružnicí Oba způsoby mají své výhody i nevýhody a jsou v podstatě rovnocenné
Teorie rozhodování (decision theory)
Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Teorie pravděpodobnosti (probability theory) popisuje v co má agent věřit na základě pozorování. Teorie
Definice spojité náhodné veličiny zjednodušená verze
Definice spojité náhodné veličiny zjednodušená verze Náhodná veličina X se nazývá spojitá, jestliže existuje nezáporná funkce f : R R taková, že pro každé a, b R { }, a < b, platí P(a < X < b) = b a f
Markov Chain Monte Carlo. Jan Kracík.
Markov Chain Monte Carlo Jan Kracík jan.kracik@vsb.cz Princip Monte Carlo integrace Cílem je (přibližný) výpočet integrálu I(g) = E f [g(x)] = g(x)f (x)dx. (1) Umíme-li generovat nezávislé vzorky x (1),
Odhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
Funkce a lineární funkce pro studijní obory
Variace 1 Funkce a lineární funkce pro studijní obory Autor: Mgr. Jaromír JUŘEK Kopírování a jakékoliv další využití výukového materiálu je povoleno pouze s uvedením odkazu na www.jarjurek.cz. 1. Funkce