Strojové učení. 14. listopadu 2015

Rozměr: px
Začít zobrazení ze stránky:

Download "Strojové učení. 14. listopadu 2015"

Transkript

1 Strojové učení 14. listopadu 2015

2 Poděkování Děkujeme Rudovi. i

3 Obsah Předmluva 1 Přehled použitého značení 2 1 Strojové učení 3 Celkový přehled. 1.1 Příklady použití Metody Proč studovat strojové učení Metoda nejbližších sousedů 6 Klasifikace, množina rysů, vektor, vzdálenost. 2.1 Klasifikační úlohy Algoritmus hledání nejbližších sousedů Doporučování filmů Cvičení rozpoznávání znaků Perceptron 12 Parametrický model, předzpracování dat, testovací data, správnost. 3.1 Model Algoritmus učení Předzpracování dat Lineární regrese 14 Regrese, regularizace. 5 Rozhodovací stromy 15 Porovnávání modelů, kombinace modelů. 6 Naivní Bayesův klasifikátor 16 Pravděpodobnostní model. 6.1 Podmíněná pravděpodobnost Model Cvičení ii

4 7 Klastrování k-means 22 Učení bez učitele. 8 Další 23 SVM, neuronové sítě, zpětnovazebné učení. iii

5 Předmluva Velká část softwarových inovací posledních let, ať už jsou to automatické překladače z jednoho jazyka do druhého, detekce obličejů ve fotkách na Facebooku, našeptávač v Googlu, nebo samořídící auta má společné to, že nikdo ručně neprogramuje pravidla, podle kterých se tyto systémy řídí. S nadsázkou se dá říct, že to jsou programy, které programují jiné programy. Také mají společné to, že na světě existuje spousta záznamů o tom, jak to tyto úkoly zvládají lidé. Překlady textů, můžeme stahovat z internetu, uživatelé Facebooku se sami na fotkách označují, v případě aut není problém v palubním počítači zaznamenávat průběh jízdy. Právě tyto záznamy se používají k tomu, aby se programy naučily tyto úkoly automaticky strojovým učením. TM: Machine-learning technology powers many aspects of modern society: from web searches to content filtering on social networks to recommendations on e-commerce websites, and it is increasingly present in consumer products such as cameras and smartphones. Machinelearning systems are used to identify objects in images, transcribe speech into text, match news items, posts or products with users interests, and select relevant results of search. TM: The key aspect of deep learning is that these layers of features are not designed by human engineers: they are learned from data using a general-purpose learning procedure. TM: Deep learning is making major advances in solving problems that have resisted the best attempts of the artificial intelligence community for many years. It has turned out to be very good at discovering intricate structures in high-dimensional data and is therefore applicable to many domains of science, business and government. In addition to beating records in image recognition and speech recognition, it has beaten other machine-learning techniques at predicting the activity of potential drug molecules, analysing particle accelerator data, reconstructing brain circuits, and predicting the effects of mutations in non-coding DNA on gene expression and disease. Perhaps more surprisingly, deep learning has produced extremely promising results for various tasks in natural language understanding, particularly topic classification, sentiment analysis, question answering and language translation. 1

6 Přehled použitého značení TM: Preferoval bych label před class. Nemá ontologické konotace a není to klíčové slovo v Pythonu. Značka x y Význam vstupní vektor výstupní vektor 2

7 Kapitola 1 Strojové učení TM: Napsat, že budem prezentovat kódy, které nebudou nutně nejsprávnější ani nejefektivnější, zato budou usilovat o co největší srozumitelnost. V praxi člověk použije knihovnu. Poskytnout jednoduchou a srozumitelnou definici strojového učení by bylo obtížné. Pod tímto označením se ukrývá mnoho různých metod, které se navzájem výrazně liší. Nejprve proto představíme několik úspěšných aplikací strojového učení. Na nich pak ukážeme jeho obecné principy, vlastnosti, výhody a nevýhody. 1.1 Příklady použití Samořídící auta! Jednou z nejdéle používaných aplikací strojového učení je rozpoznávání ručně psaných číslic při automatickém třídění poštovních zásilek. První výzkumy v této oblasti začaly už v osmdesátých letech dvacátého století ve Spojených státech. Od konce devadesátých let se automatické rozpoznávání poštovních směrovacích čísel používá v praxi. Google Translate. Příkladem takového programu je známý překladač od společnosti Google. Zde se překlad učí z textů, které existují ve více jazycích. Pro učení překladu jednoho jazykového párů se využívají texty, které mají dohromady až miliardy slov. Facebook. V roce 2014 publikovaly výzkumníci z Facebooku a Cornellovy univerzity v New Yorku článek 1, ve kterém používají strojové učení k tomu, aby rozpoznaly, zda se pár v nejbližší době rozejde. TM: Citace v předchozím odstavci zabírá stejně textu jako zajímavá informace, imho patří celá do poznámky. Watson. Například banky disponují velkým množstvím dat o svých klientech, mají také informace o tom, jestli jak se jejich klientům v minulosti dařilo nebo nedařilo splácet půjčky. Podobné metody používají také pojišťovny, když odhadují rizika pojistných událostí. V praxi se můžeme setkat i s celkem bizarními využitími strojového učení. Ve vědeckých časopisech byly publikovány například články a diagnostice Parkinsonovy choroby ze způsobu 1 3

8 předpoklady x data x 1 y 1 x 2 y 2 x 3 y 3.. učící algoritmus metaparametry model algoritmus parametry y požadavky Obrázek 1.1: Základní schéma strojového učení. ovládání displeje smartphonu nebo automatické rozpoznávání pohlaví autora textu podle rukopisu, které využívají strojové učení. 1.2 Metody O strojovém učení mluvíme tehdy, když pravidelnosti (vzory patterns, obvyklosti, uspořádanosti) v datech nevyhledává člověk, ale stroj (tedy počítač) pomocí nějakého programu. S pomocí počítačů jsme schopni analyzovat množství dat, které by jinak nebylo v lidských silách zvládnout. Jednou z oblastí, kde se strojové učení často používá, jsou úlohy, které člověk provádí se samozřejmostí například rozpoznávání objektů kolem sebe, rozpoznávání mluvené řeči nebo překlad z jednoho jazyka do druhého. O strojovém učení hovoříme i v případě, kdy místo toho, abychom složitě programovali řešení nějaké úlohy, využijeme toho, že existují trénovací data necháme program, aby se to naučil sám. 4

9 1.3 Proč studovat strojové učení Shrnutí Strojové učení je: vyhledávání pravidelností v datech způsob jak docílit nějakého chování počítače bez explicitního programu proces hledání vhodného modelu a jeho parametrů TM: Jak se liší SU od modelování obecně? JL: Měla by být zvlášť kapitola o feature engeneeringu nebo to ukázat někde jinde (konjunkce featur apod.) JL: Big Data JL: společenský dopad 5

10 Kapitola 2 Metoda nejbližších sousedů TM: doporučování filmů by byl realistický příklad na použití vzdálenosti JL: Co do každé kapitoly přidat jednu zajímavou story tady by to mohl být collaborative filtering, u prceptronu ty experimenty v padesátkách V této kapitole si představíme jednu z nejjednodušších metod strojového učení, která je velice intuitivní a jmenuje se návodně metoda nejbližších sousedů. Pro začátek se podíváme na úlohu, který je poměrně jednoduchá a dobře poslouží k představení základních pojmů.v závěrečném programovacím cvičení se podíváme na zajímavější, ale o něco složitější úlohu. 2.1 Klasifikační úlohy V této kapitole bude naší úlohou určování tří druhů kosatců podle šířky a délky jejich kališních a korunních lístků. Schéma květu najdete na obrázku 2.1. Pochopitelně to není tak, že by si někdo řekl, že potřebuje určovat druhy kosatců a bude to dělat tak, že pravítkem změří rozměry květu, ty zadá do počítače a dozví se, jaký druh má před sebou. To by bylo značně absurdní. Ve skutečnosti jen využíváme známou databázi měření, která pochází z roku 1936 a od druhé poloviny 20. století se často používá jako příklad v informatické literatuře pro ilustraci různých metod. Využívání dat, která původně vznikla pro jiné účely, ale obsahují zajímavé informace (např. účetní záznamy), je ve strojovém učení zcela běžné. Obrázek 2.1: Schéma květu dvouděložných rostlin. 6

11 Úlohy tohoto typu, kdy se na základě nějakých vlastností objektů rozhodujeme, do jaké skupiny objekt patří, nazýváme obecně klasifikace (EN: classification). Klasifikaci obvykle popisujeme jako přiřazování značky (EN: labels), které označují jednotlivé skupiny třídy (EN: classes). Jiným příkladem klasifikace může být filtrování spamu v ech. Zde se klasifikuje do dvou tříd spam a běžný . Složitějším příkladem klasifikace je identifikace obličejů na fotkách. Značky, které v tomto případě fotkám přiřazujeme jsou jména osob, které chceme na fotkách rozpoznat. Metoda nejbližších sousedů se dá několika slovy popsat takto: k neklasifikovanému příkladu najdeme nejpodobnější nejbližší známý příklad a neklasifikovaný příklad zařadíme do stejné třídy. Nejen, že se to snadno řekne, ale jak uvidíme později překvapivě snadno také naprogramuje. K tomu, abychom se naučili kosatce rozpoznávat, máme k dispozici 100 příkladů, u nichž známe délku a šířku korunních lístků, délku a šířku kališních lístků, k jakému druhu která rostlina patří. Těmto příkladům, ze kterých se naučíme rostliny rozpoznávat říkáme trénovací data (EN: training data). Jejich ukázku najdete v tabulce 2.1. koruna kalich druh délka šířka délka šířka Iris versicolor Iris setosa Iris virginica Iris virginica Iris setosa Iris versicolor Tabulka 2.1: Ukázka trénovacích dat. Rozměry jsou uvedeny v centimetrech. Vidíme tedy, že každý exemplář rostliny je popsán čtyřmi reálnými čísly a druhem, ke kterému patří. Číslu, které popisuje vlastnost instance, budeme říkat rys (EN: feature). Někdy se používá také pojem příznak, vstupní veličina, nebo slangově počeštělé fíčura. Jednotlivým exemplářům říkáme instance (EN: instances). V případě klasifikace ů na spamy a nespamy se jako rysy používají informace o přítomnosti určitých slov nebo o tom, jak často uživatel na tuto adresu sám odesílá y. Instancemi jsou jednotlivé y. Pro zjednodušení zápisu budeme s rysy zacházet jako s vektory reálných čísel. O vektorech většinou mluvíme v souvislosti s geometrií, ale pro nás bude zatím vektor jenom uspořádaná n-tice čísel. V případě úlohy s kosatci vypadá trénovací příklad vypadá takto: (7.0, 3.2, 4.7, 1.4) Iris versicolor 7

12 2.2 Algoritmus hledání nejbližších sousedů Algoritmus, který použijeme v případě, že potřebujeme klasifikovat novou, neznámou instanci je velice jednoduchý. Projdeme všechna trénovací data a pro každou trénovací instanci změříme její vzdálenost od té klasifikované. Vybereme tu, která má nejmenší vzdálenost a použijeme její třídu. Algoritmus v Pythonu naprogramujeme například takto: 1 def nearest_neighbor( new_instance, training_data): 2 # Zadefinujeme funkci, ktera pocita vzdalenost nove intance 3 # od prikladu z trenovacich dat. 4 def distance_from_instance( training_example): 5 # Z trenovaciho prikladu nas zajima pouze vektor rysu. 6 feature_vector, _ = training_example 7 # Vratime vzdalenost vektoru rysu trenovaciho vektoru a nove instance. 8 return distance( feature_vector, new_instance) 9 10 # Definovanou funkci pouzije jako klic pro hledani minima 11 # v trenovacich datech. 12 nearest_vector, nearest_label = \ 13 min( training_data, key= distance_from_instance) 14 # Vratime tridu nejbliziho souseda. 15 return nearest_label Abychom mohli algoritmus spustit, chybí nám ještě implementovat funkci distance. Měřit vzdálenost mezi instancemi můžeme různým způsobem. My si nyní ukážeme ten nejběžnější způsob Eukleidovskou vzdálenost. Když pomocí vektorů označujeme body v ploše nebo prostoru, můžeme snadno měřit jejich vzdálenost pomocí Pythagorovy věty. Pro dva dvourozměrné vektory a = (a 1, a 2 ) a b = (b 1, b 2 ), můžeme spočítat jejich vzdálenost d(a, b) = (a 1 b 1 ) 2 + (a 2 b 2 ) 2. (2.1) Geometrické odvození je celkem jednoduché a můžeme ho schématicky vidět na obrázku 2.2. Obrázek 2.2: Odvození Eukleidovské vzdálenosti pomocí Pythagorovy věty. Rozdíly souřadnice určují velikosti přepon trojúhelníku. Odvěsna potom určuje jejich vzdálenost. Pro třírozměrné vektory c = (c 1, c 2, c 3 ) a d = (d 1, d 2, d 3 ), máme Eukleidovskou vzdálenost d(c, d) = (c 1 d 1 ) 2 + (c 2 d 2 ) 2 + (c 3 d 3 ) 2. (2.2) 8

13 Znázornit její odvození jako v případě dvou rozměrů by bylo o něco složitější, ale stále možné. Eukleidovská vzdálenost se dá zobecnit pro vektory, které mají n rozměrů, ovšem bez rozumné možnosti postup vizualizovat. Pro vektory e = (e 1,..., e n ) a f = (f 1,..., f n ). Eukleidovskou vzdálenost mezi nimi spočítáme takto: d(e, f) = (e 1 f 1 ) (e n f n ) 2 = n (e i f i ) 2. (2.3) V Pythonu zapíšeme Eukleidovskou vzdálenost velice snadno a podobně matematickému zápisu: 1 def distance( vec_a, vec_b): 2 # pocitame odmocninu - np. sqrt(...) 3 # ze souctu - sum(...) 4 # operator "-" vektory po slozkach odecte, 5 # operator "**" vektory po slozkach umocni 6 return np. sqrt( sum(( vec_a - vec_b) ** 2)) Ve cvičení si ukážeme ještě další způsob, jak se počítat vzdálenost mezi instancemi. i=1 Obrázek 2.3: Dvourozměrná vizualizace dat délka šířka korunních lístků (vlevo) a délka šířka kališních lístků (vpravo), jednotlivé třídy jsou barevně označeny. Na obrázku 2.3 vidíme jednoduchou vizualizaci našich trénovacích dat. Bohužel do grafu nelze zakreslit čtyřrozměrné vektory a tak jsme zakreslili zvlášť rozměry kališních a korunních lístků. Pokud bychom se rozhodli používat pouze dva rysy, mohli bychom skutečně hledat nejbližší sousedy v grafu tak, že bychom pravítkem měřili, která instance je nejpodobnější novému exempláři. Zároveň si v grafu můžeme všimnout toho, že často ten nejbližší soused nemusí patřit do třídy, kterou považujeme intuitivně za nejsprávnější. Vezměme například na bod [7, 1; 3, 2] v levém grafu. K němu je nejblíže zeleně obarvený bod, přestože leží v oblasti, které dominují spíše modré body a asi bychom selským rozumem považovali za správnější, kdyby tento nový bod byl také modrý. To se dá vyřešit jednoduchou modifikací algoritmu místo jednoho nejbližšího sousedního bodu se můžeme podívat na více sousedních bodů z nich vybrat 9

14 převažující značku. Počet sousedů, na které se díváme je v následujícím kódu označen jako k. 1 def k_nearst_neighbors(k, new_instance, training_data): 2 # Seradime trenovaci data podle vzdalenosti od nove instance. 3 # Funkce " distance_from_instance" z predchozi funkce je nahrazena 4 # strucnejsim lambda zapisem. 5 training_data_by_distance = \ 6 sorted( training_data, key= lambda x: distance(x[0], new_instance ))[0: k] 7 # Z tech vezmeme k nejblich. 8 k_nearest_instances = training_data_by_distance [0: k] 9 # Z nejblizsich trenovacich prikladu vezmeme pouze jejich tridy. 10 k_nearest_labels = [y for x, y in k_nearest_instances] # Nyni spocitame, kolikrat se ktera trida vyskytuje v okoli nove instance. 13 # V nasledujici promenne je tabulka, do ktere budeme zapisovat pocty trid. 14 labels_counts = {} 15 # Projdeme tridy nejblizsich prikladu jednu po druhe: 16 for label in k_nearest_labels: 17 # pokud jeste neni v tabulce, zapiseme jeji vyskyt 1- krat, 18 if label not in labels_count: 19 labels_counts[ label] = 1 20 # pokud uz je v tabulce, zvysime pocet vyskytu o else: 22 labels_counts[ label] += 1 23 # Vratime znacku, ktera se vyskytla nejvickrat. 24 return max( labels_counts, key= lambda c: labels_counts[c]) Největší praktickou nevýhodou metody nejbližších sousedů je to, že vyžaduje, aby při klasifikaci nových instancí, byla všechna trénovací data načtena v paměti. To může být v případě velkých datových sad problematické. V ukázkách kódu vždy procházíme všechny trénovací instance. V praxi se používají metody, které umožňují procházet trénovací data chytřeji bez nutnosti vždy procházet celá trénovací data. 2.3 Doporučování filmů Na principu této metody je založeno také doporučování obsahů na různých webových službách, např. Youtube nebo Netflix (největší světová půjčovna filmů). Základní algoritmus je velice jednoduchý. Pro každého uživatele zaznamenáváme, jak hodnotil jaké filmy. Každý film tedy můžeme popsat vektorem, který říká, jak se líbil kterému uživateli a zároveň každého uživatele můžeme popsat vektorem, který říká, jak se mu líbily které filmy. Pokud tedy chceme uživateli doporučit něco, co se mu pravděpodobně bude líbit, doporučíme mu, který se líbil podobným lidem (uživatelům, kteří mají nejpodobnější vektory). Stejně tak můžeme snadno vytipovat podobné filmy budou to zase filmy s nejpodobnějšími vektory. JL: Mohl bych k tomu namalovat nějaký obrázek Jako rysy nemusíme používat pouze hodnocení od uživatelů. V případě Youtube je cennou informací, jestli se uživatel na video díval až do konce, jestli ho komentoval, kolik času strávil 10

15 čtením komentářů a další podobná data. Největším problémem této metody se skutečnost, že většina uživatelů většinu videí vůbec neviděla. Kdybychom tedy měli počítat Eukleidovskou vzdálenost jejich vektorů, téměř by se nelišila, protože uživatelé se shodují téměř ve všech dimenzích (videa, která nikdy neviděli). Mohli bychom také chtít porovnat každé dva uživatele pouze v těch dimenzích, které kódují videa, které oba viděli. Potom bychom narazili na problém, že vzdálenosti mezi různými páry uživatelů by byly vzájemně neporovnatelné, protože by používaly různé rysy. Zároveň je nutné umět tuto podobnost počítat velice efektivně, protože se obvykle pracuje s obrovskými daty (miliony uživatelů a videí). Doporučování uživatelům na základě historie je pochopitelně i komerčně velice zajímavý problém. V letech v roce 2007 vypsal Netflix cenu jeden milion dolarů pro toho, kdo nalezne algoritmus, který bude umět doporučovat filmy s o 10 % větší úspěšností, než algoritmus, který používal Netflix sám. Soutěže se každý rok účastnili přes pět tisíc týmů, které odevzdaly více než řešení. Hlavní cena byla udělena až v roce Přestože trénovací data do soutěže byla anonymizovaná, už v roce 2007 se dvěma vědcům z Texaské univerzity podařilo odhalit ztotožnit uživatele s jejich profily v Internet Movie Database. Po sérii žalob na ochranu soukromí se Netflix rozhodl soutěž v roce 2010 ukonči. 2.4 Cvičení rozpoznávání znaků JL: OCR pomocí k-nn s Hamming Loss Shrnutí Klasifikace je typ úlohy, jejímž cílem je rozdělit objekty (instance) do několika tříd. Jednotlivé instance popisujeme množinou rysů, které typicky zapisujeme jako vektory reálných čísel. Algoritmy strojového učení se učí z trénovacích dat datové sady, kde jsou jednotlivým instancím správě přiřazené třídy. Metoda nejbližších sousedů pracuje tak, že k neznámé instanci nalezne nejpodobnější příklady a přiřadí jí převládající třídu. K počítání podobnosti se používá vzdálenost mezi vektory rysů, nejtypičtější příkladem je Eukleidovská vzdálenost. 11

16 Kapitola 3 Perceptron JL: Nápad k perceptronu že můžeme rysy sečíst, když působí společně, ale nevíme v jakém poměru. JL: parametrický model, KNN byl neparametrický TM: zavést lin. separabilitu? 3.1 Model { 1 pokud n y = i=1 w ix i b 0 jinak (3.1) 3.2 Algoritmus učení TM: t = čas w t+1 = w t (y t)x (3.2) 3.3 Předzpracování dat TM: heuristika pro počáteční nastavení vah: průměr pozitivních minus průměr negativních vzorů TM: modifikace: parametr rychlosti učení JL: Learning curve TM: přihrádkový algoritmus učení pamatuju si nejlepší váhový vektor a kolik vzorů poznal správně JL: accuracy = správnost, co precision a recall? (přesnost a úplnost) 12

17 TM: důkaz konvergence JL: praktické aspekty: silně korelované featury zpomalují kovergenci, protože dochází ke smyčkám (obě rysy spolu cyklicky zesilují a zespabují), antikorelované silné featury zase vedou k vysokým hodnotám vah a v praxi výpočet nekonverguje JL: Averaged perceptron? Častečně řeší výše uvedené problémy JL: accuracy porovnat s KNN, ať vidí, že se metody často porovnávají 13

18 Kapitola 4 Lineární regrese 14

19 Kapitola 5 Rozhodovací stromy TM: Co je to vyhledávací strom. Přirovnat k botanickému klíči? TM: Randomizovaný způsob konstrukce z dat. TM: Porovnání stromů. TM: Information gain. JL: Vysvětlit, co je kategoriální (, binární?) a numerický rys 15

20 Kapitola 6 Naivní Bayesův klasifikátor Současná umělá inteligence používá velice často teorii pravděpodobnosti k odhadu nejistoty rozhodnutí, které stroje provádí. Z teorie pravděpodobnosti vychází v minulém desetiletí velice populární grafické modely a využívají ji i v současnosti velmi rychle se rozvíjející neuronové sítě. V této kapitole si ukážeme jeden velice jednoduchý pravděpodobnostní model, který se používá ke klasifikaci, a k jehož vysvětlení stačí pouze středoškolská matematika. V klasickém středoškolském pojetí se pravděpodobnost používá k popisu událostí, které u kterých opředu odhadnout, jak dopadnou například protože takový výpočet byl nepředstavitelně složitý (například u hodu kostkou). Teorie pravděpodobnosti můžeme uplatnit i v případě počítání s nejistotou (EN: uncertainty), byť se v tomto případě jedná o kvalitativně jinou veličinu. Když říkáme, že je padesátiprocentní pravděpodobnost, že na minci padne orel, myslíme tím že když hodíme mnohokrát, padne orel přibližně v polovině případů. Když ale tvrdíme, že ledovec roztaje s padesátiprocentní pravděpodobností, nemyslíme tím, že kdybychom naklonovali tisíce zeměkoulí a nechali je se nezávisle vyvíjet za stejných podmínek, na polovině z nich by ledovec roztál a na druhé polovině nikoli. Výsledek byl vždy stejný. Pravděpodobnostní modely ve strojovém učení modelují právě tuto nejistotu na základě vstupních rysů a dostupných trénovacích dat. Model si může být jistý a zároveň se mýlit. Často se uvádí výzkum americké armády z počátku 90. let, jehož cílem bylo automatické rozlišování snímků spojeneckých a nepřátelských tanků 1. Jak takové fotky tanků vypadaly si můžete prohlédnout na obrázku 6.1. K rozpoznávání tehdy použili neuronovou síť a dosáhli úspěšnosti přes 90 % na nezávislé testovací sadě, kterou nepoužili při trénování. Rozhodnutí modelu vykazovala vždy velkou míru jistoty, systém přesto v praxi naprosto selhával. Později se ukázalo, že fotky nepřátelských tanků byly vyfoceny v den, kdy byla zatažená obloha, fotky spojeneckých, když bylo jasno. Neuronová síť potom využívala tuhle náhodnou pravidelnost v trénovacích datech, a když byla zatažená obloha, s jistotou odpověděla, že se jedná o nepřátelský tank. Model, který si představíme v této kapitole je podstatně jednodušší, než neuronová síť určená k rozpoznávání tanků. Dříve, než si vysvětlíme samotný model, zopakujeme některé základní pojmy z pravděpodobnosti a statistiky, které budeme potřebovat. 1 Kompletní technickou zprávu mohou zájemci nalézt zde: publications/1994_fcarson_report.pdf 16

21 Obrázek 6.1: Ukázka trénovacích dat pro rozpoznávání tanků, zdroj: Technická zpráva Fort Carson 6.1 Podmíněná pravděpodobnost V pravděpodobnosti a statistice říkáme, že jevy A a B jsou nezávislé, když pro pravděpodobnost, že nastanou oba jevy zároveň (tzv. sdruženou pravděpodobnost) platí vztah: P(A, B) = P(A) P(B). (6.1) To se dá snadno ilustrovat například na hodu kostkou. Pravděpodobnost, že padne šestka je 1 1. Pravděpodobnost, že padne dvakrát za sebou je podle vzorce 6.1 rovna. To ověříme snadno kombinatoricky: je celkem 36 kombinací, které mohou padnout při hodu dvěma 6 36 kostkami, jediná z nich jsou dvě šestky, pravděpodobnost je tedy Další pojem, který je třeba připomenout je podmíněná pravděpodobnost (EN: conditional probabiity). Pravděpodobnost, že nastane jev A (třeba že na dvou hracích kostkách padne dohromady více než 7) za podmínky, že nastal jev B (třeba že na první hrací kostce už padlo 5) můžeme vyjádřit následujícím vzorcem: P(A B) = P(A, B) P(B), (6.2) kde P(A, B) je pravděpodobnost, že oba jevy nastávají zároveň. Pro náš jednoduchý příklad s hracími kostkami je jasné, že aby byl součet větší než 7, musí na druhé kostce padnout cokoli, kromě jedničky nebo dvojky. Pokud se jedná o férovou kostku, vidíme pravděpodobnost, že součet bude alespoň 7 je 2 = Pokud počítáme podle rovnice 6.2, dosadíme do čitatele pravděpodobnosti, že na první kostce padlo 5 a zároveň je součet větší než 7. To nastává tehdy, když na druhé padne alespoň 3. Jsou tedy 4 možnosti z celkově 36 kombinací, co může na kostkách padnout. Do jmenovatele dosadíme pravděpodobnost, že na první kostce padlo 5, to je 1. Po dosazení získáme stejnou 6 1 jako v případě přímočarého řešení. 3 Z této dvou definic můžeme odvodit Bayesovu větu. Definici zformulujeme pro podmíněnou pravděpodobnost P(B A) a rovnici vynásobíme jmenovatelem na pravé straně: P(A, B) = P(B A) P(A) Tento vztah potom dosadíme rovnou do definice 6.2, čímž dostáváme znění Bayesovy věty: P(A B) = P(B A) P(A) P(B) 17 (6.3)

22 Zatím jsme o pravděpodobnosti jako o nástroji pro popis něčeho, co se chová nepředvidatelně a co lze mnohokrát opakovat. Nyní si ukážeme jednoduchý příklad, kdy můžeme použít Bayesovu věty pro odhad nejistoty. Častým příkladem, na kterém se vysvětlují různé pravděpodobnostní modely, je tahání kuliček z různých nádob (přinejmenším už od 19. století). Nedává moc praktický smysl něco takového počítat. Úvaha, kterou na tomto příkladu provedeme, se nám ale bude hodit později. Mějme dvě krabičky a v každé deset barevných kuliček. V krabičce a je 6 modrých a 4 zelené kuličky, v krabičce b je jedna modrá 9 zelených. Vybereme jednu z krabiček náhodně a vytáhneme jednu kuličku. Dokud nevíme, jakou má kulička barvu, nemáme žádný důvod preferovat některou z krabiček. Jakmile zjistíme, že kulička má zelenou barvu, začne nám být jasné, že je pravděpodobnější, že pochází z krabičky b. Míru naší jistoty můžeme odhadnout pomocí Bayesovy věty. Zajímá nás pravděpodobnost, že jsme vybrali krabičku b, za podmínky, že kulička je zelená: P(b z) = P(z b)p(b). P(z) Pravděpodobnost, že z krabičky b vytáhneme zelenou kuličku (P(z b)), je 9 ; pravděpodobnost, že zvolíme krabičku b je 1. Zbývá nám odhadnout jmenovatele tedy pravděpodobnost, 10 2 že bude vytažena zelená kulička. Zajímá nás, jaká je pravděpodobnost, že byla tažena zelená kulička, jedno z jaké krabičky. Protože kuličku nelze vytáhnout napůl z jedné a napůl z druhé krabičky, jedná se o logickou disjunkci a můžeme pravděpodobnost vyjádřit jako součet pravděpodobnosti událostí, že byla zelená kulička tažena z každé krabičky: P(z) = P(z, a) + P(z, b) Sdružené pravděpodobnosti P(z, a) a P(z, b) stále neznáme, ale můžeme je opět rozepsat podle definice podmíněné pravděpodobnosti. Dostáváme P(z) = P(z a)p(a) + P(z b)p(b) = = Po dosazení dostaneme pravděpodobnost toho, že kulička pocházela z krabičky b rovnu 9 70 %. To je v souladu s úvahou selským rozumem, že když je kulička zelená, nejspíš 13 pochází z krabičky b, když je jich tam více. V toto příkladě získaná pravděpodobnost není odhad četnosti při opakování experimentu do nekonečna. Událost vytažení kuličky se jednou pro vždy odehrála. Jediné, co můžeme počítat, jak moc jsme si jisti, že byla vytažena z jedné nebo druhé krabičky. 6.2 Model Když klasifikaci používáme pravděpodobností modely, odhadujeme pravděpodobnost (jistotu) P(y x), tedy pravděpodobnost přiřazení značky y, je-li dán vektor rysů x. V základní verzi, kterou si ukážeme pracuje Naivní Bayes pouze s kategoriálními proměnnými. Pravděpodobnost klasifikace si rozepíšeme pomocí Bayesovy věty: P(y x) = P(x y)p(y). (6.4) Px 18

23 rys možné hodnoty věk 10 19, 20 29, 30 39, 40 49,, menopauza předmenstruační věk, věk do 40 let, věk nad 40 let velikost primárního nádoru 0 4 mm, 5 9 mm, mm,, mm počet mízních uzlin s nádorovými buňkami 0-2, 3-5, 6-8, 9-11, 12-14,, ložisko zapouzdřeno ano, ne stupeň maligity 1, 2, 3 prs levý, pravý kvadrant umístění nádoru levý horní, levý spodní, pravý horní, pravý dolní, střední ozařování ano, ne Výraz ve jmenovateli nezávisí na značce y. Protože chceme klasifikovat, nemusí nás zajímat konkrétní odhad nejistoty, zajímá nás pouze, jaká značka má nejvyšší pravděpodobnost nejvyšší hodnotu čitatele. Pokud by nás zajímal i jmenovatel, můžeme ho spočítat obdobně jako v našem příkladu s krabičkami. Naše odhadnutá klasifikace ŷ je taková značka y, pro kterou je hodnota čitatele nejvyšší. Formálně píšeme ŷ = argmax P(x y)p(y). (6.5) y Zápis argmax y f(y) zde znamená y, pro nějž je hodnota výrazu f(y) nejvyšší. Odhadování pravděpodobností v předchozí rovnici si vysvětlíme na příkladu další úlohy, která bývá uváděna v literatuře o strojovém učení. Úlohou je odhadování možnosti recidivy karcinomu prsu. K této úloze jsou k dispozici anonymizované informace o 277 pacientkách z roku Rysy, které budeme používat k rozhodnutí jsou uvedeny v tabulce??. Sada rysů i počet pacientek jsou velmi omezené. Každého určitě napadne, že existují i další faktory, které hrají roli například genetická zátěž, zda kouří, míra stresu, které je vystavena atd. Navíc data byla sbírána v 80. letech v Lublani. Lze tedy očekávat, že skupina pacientek byla etnicky homogenní a v socialistické se Jugoslávii bez velkých ekonomických rozdílů, se pacientky se příliš nelišily svým životním stylem. Model tyto informace nemá k dispozici a rozhoduje vždy stejně. Pravděpodobnost P(y) v rovnici?? je pravděpodobnosti že dojde k recidivě nádoru bez ohledu na to, jaké hodnoty jsme u pacientky naměřili. Tuto pravděpodobnost můžeme jednoduše odhadnout jako poměr pacientek, u kterých došlo k recidivě ku celkovému počtu pacientek. Stejně spočítáme nepodmíněnou pravděpodobnost, že k recidivě nedojde. Situace je komplikovanější při odhadu pravděpodobnosti P(x y) tedy pravděpodobnosti naměřených hodnot pacientky za předpokladu (za podmínky), že dojde k recidivě nádoru. Triviální způsob, jak pravděpodobnost odhadnout, by bylo spočítat, jak často byly mezi pacientkami ty, které vykazovaly přesně tuto kombinaci rysů. Možných kombinací rysů je ale obvykle řádově více, než mám k dispozici trénovacích datech žádná pacientka s naprosto 19

24 stejnou kombinací rysů nevyskytuje. To je problém, který musí řešit všechny klasifikační algoritmy, které jsem si představili. Metoda nejbližších sousedů (kapitola??) řeší tento problém hledáním podobných instancí. Perceptronový algoritmus (kapitola??) problém jej obchází tak, že vůbec neuvažuje o společném výskytu rysů a jednotlivým rysům přiřazuje různé váhy. Obdobný přístup volí i naivní bayesovský klasifikátor, který předpokládá takzvanou podmíněnou nezávislost (EN: conditional independence) rysů. Tedy, je-li už dána značka, předpokládáme, že pravděpodobnosti jednotlivých rysů jsou vzájemně nezávislé. Podle definice statistické nezávislosti (rovnice 6.1), rozepíšeme podmíněnou pravděpodobnost takto: P(x y) = P(x 1,..., x n y) P(x 1 y) P(x n y). Předpoklad podmíněné pravděpodobnosti je pochopitelně značně zjednodušující. Rysy, které spolu systematicky souvisí, přináší modelu částečně tu samou informaci. Protože ale předpokládáme vzájemnou nezávislost rysů, je tato informace ve skutečnosti započítána víckrát a zkresluje rozhodnutí modelu. V tomto případě mohou být takovými rysy věk pacientky a informace o tom, zda prošla menopazou, které spolu souvisí. Podmíněnou pravděpodobnost pro i-tý P(x i y) odhadneme už jednoduše pomocí četnosti výskytu rysu v trénovacích datech. Je-li tímto rysem například věk ženy, vezmeme zvlášť ty, u kterých došlo k recidivě nádoru (y = +) a ty, kde nikoli (y = 0) a v rámci těchto kategorií (za těchto podmínek) spočítáme pravděpodobnost pro jednotlivé věkové kategorie. Pro každou věkovou kategorii a odhadneme P(x 0 = a y = 0) = c(x 0 = a y = 0) c(y = 0) a stejně pro y = 1, kde funkcí c se myslí počet trénovacích příkladů, splňující podmínku uvedenou jako argument funkce. Učení modelu spočívá ve spočítání četností, které potřebujeme pro výpočet pravděpodobností. Kód může vypadat například takto. 1 class NaiveBayes( object): 2 def init ( self, training_data): 3 self. feature_count = len( training_data [0][0]) 4 self. data_size = len( training_data) 5 # Tabulka s pocty instanci v jednotlivych tridach 6 self. labels_counts = {} 7 # Tabulka s hodnotami rysu v jednotlivych tridach 8 self. cond_feature_counts = {} 9 10 for feature_vector, label in training_data: 11 # Pokud jsme label, jeste nevideli, zalozime ji polozku v obou 12 # dvou tabulkach 13 if label not in labels_counts: 14 # Znacku jsme jeste nevideli ani jednou 15 self. labels_counts[ label] = 0 16 # Pripravime zvlastni tabulku pro kazdy r y s 17 self. cond_feature_counts[ label] = [{}] * feature_count self. labels_counts[ label] += 1 20

25 20 for i in range( self. feature_count): 21 feature_value = feature_vector[i] 22 if feature_value not in self. cond_feature_counts[ label][ i]: 23 self. cond_feature_counts[ label][ i][ feature_value] = 1 24 else 25 self. cond_feature_counts[ label][ i][ feature_value] += 1 Model implementujeme v Pythonu jako třídu. Při inicializaci objektu se spočítají parametry modelu, které později využívají při klasifikaci. Metoda, která provádí samotnou klasifikaci se dá naprogramovat takto. 1 def classify( self, instance): 2 # Pro zajisteni numericke stability si rozepiseme nasobeni 3 # pravdepodobnosti jako nejprve nasobeni vsech citatelu a potom deleni vsemi 4 # jmenovateli 5 best_score = 0 6 best_label = None 7 8 # Projdu vsechny mozne labely a pro kazdy spocitam skore 9 for label in self. labels_counts: 10 label_count = self. labels_counts[ label] 11 count_product = np. prod( 12 [ self. cond_feature_counts[ label][ i]. get( feature_value, default =0.0) 13 for i, feature_value in enumerate( instance) ]) 14 score = count_product / 15 labels_counts ** ( self. feature_count - 1.0) / self. data_size 16 if score > best_score: 17 best_score = score 18 best_label = label return best_label JL: Výsledky klasifikátoru a porovnat s jinými: decision tree, knn Hamming 6.3 Cvičení JL: Tabulka: heatmapa četnosti jednotlivých rysů V trénovacích datech jsou kombinace rysy, které nejsou zastoupené vedou k odhadu nulové pravděpodobnosti v obou případech... zkuste transformovat množinu rysů tak, aby tyto případy zmizely. Dokážete takto zvýšit správnost klasifikace? V tabulce?? uvádíme výsledek učení perceptronovým algoritmem. Jakým způsobem je potřeba transformovat rysy, aby bylo možné perceptron použít? Shrnutí Pravděpodobnostní model Bayesova věta 21

26 Kapitola 7 Klastrování k-means 22

27 Kapitola 8 Další TM: strukturní predikce? 23

Kapitola 1. Naivní Bayesův klasifikátor

Kapitola 1. Naivní Bayesův klasifikátor Kapitola 1 Naivní Bayesův klasifikátor Současná umělá inteligence používá velice často teorii pravděpodobnosti k odhadu nejistoty rozhodnutí, které stroje provádí. Z teorie pravděpodobnosti vychází v minulém

Více

Úloha - rozpoznávání číslic

Úloha - rozpoznávání číslic Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání

Více

Kapitola 1. Logistická regrese. 1.1 Model

Kapitola 1. Logistická regrese. 1.1 Model Kapitola Logistická regrese Předpokládám, že už jsme zavedli základní pojmy jako rysy a že už máme nějaké značení Velkost trenovacich dat a pocet parametru Motivační povídání... jeden z nejpoužívanějších

Více

Pravděpodobnost a statistika

Pravděpodobnost a statistika Pravděpodobnost a statistika 1 Náhodné pokusy a náhodné jevy Činnostem, jejichž výsledek není jednoznačně určen podmínkami, za kterých probíhají, a které jsou (alespoň teoreticky) neomezeně opakovatelné,

Více

Pokročilé neparametrické metody. Klára Kubošová

Pokročilé neparametrické metody. Klára Kubošová Pokročilé neparametrické metody Klára Kubošová Pokročilé neparametrické metody Výuka 13 přednášek doplněných o praktické cvičení v SW Úvod do neparametrických metod + princip rozhodovacích stromů Klasifikační

Více

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology

Více

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Diskrétní matematika. DiM /01, zimní semestr 2018/2019 Diskrétní matematika Petr Kovář petr.kovar@vsb.cz Vysoká škola báňská Technická univerzita Ostrava DiM 470-2301/01, zimní semestr 2018/2019 O tomto souboru Tento soubor je zamýšlen především jako pomůcka

Více

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

Obsah přednášky Jaká asi bude chyba modelu na nových datech? Obsah přednášky Jaká asi bude chyba modelu na nových datech? Chyba modelu Bootstrap Cross Validation Vapnik-Chervonenkisova dimenze 2 Chyba skutečná a trénovací Máme 30 záznamů, rozhodli jsme se na jejich

Více

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

Diskrétní matematika. DiM /01, zimní semestr 2016/2017 Diskrétní matematika Petr Kovář petr.kovar@vsb.cz Vysoká škola báňská Technická univerzita Ostrava DiM 470-2301/01, zimní semestr 2016/2017 O tomto souboru Tento soubor je zamýšlen především jako pomůcka

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Vytěžování znalostí z dat Department of Computer Systems Faculty of Information Technology Czech Technical University in Prague Přednáška 5: Hodnocení kvality modelu BI-VZD, 09/2011 MI-POA Evropský sociální

Více

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy Lukáš Havrlant Univerzita Palackého 10. ledna 2014 Primární zdroj Jiří Adámek: Foundations of Coding. Strany 137 160. Na webu ke stažení, heslo:

Více

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Vytěžování dat Miroslav Čepek, Filip Železný Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

7. Rozdělení pravděpodobnosti ve statistice

7. Rozdělení pravděpodobnosti ve statistice 7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.

Více

Cvičení ze statistiky - 5. Filip Děchtěrenko

Cvičení ze statistiky - 5. Filip Děchtěrenko Cvičení ze statistiky - 5 Filip Děchtěrenko Minule bylo.. Začali jsme pravděpodobnost Klasická a statistická definice pravděpodobnosti Náhodný jev Doplněk, průnik, sjednocení Podmíněná pravděpodobnost

Více

ANALYTICKÁ GEOMETRIE V ROVINĚ

ANALYTICKÁ GEOMETRIE V ROVINĚ ANALYTICKÁ GEOMETRIE V ROVINĚ Analytická geometrie vyšetřuje geometrické objekty (body, přímky, kuželosečky apod.) analytickými metodami. Podle prostoru, ve kterém pracujeme, můžeme analytickou geometrii

Více

IB111 Úvod do programování skrze Python

IB111 Úvod do programování skrze Python Vyhledávání, řazení, složitost IB111 Úvod do programování skrze Python 2012 Otrávené studny 8 studen, jedna z nich je otrávená laboratorní rozbor dokáže rozpoznat přítomnost jedu ve vodě je drahý (je časově

Více

Náhodný jev a definice pravděpodobnosti

Náhodný jev a definice pravděpodobnosti Náhodný jev a definice pravděpodobnosti Obsah kapitoly Náhodný jev. Vztahy mezi náhodnými jevy. Pravidla pro počítání s pravděpodobnostmi. Formule úplné pravděpodobnosti a Bayesův vzorec. Studijní cíle

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

IB112 Základy matematiky

IB112 Základy matematiky IB112 Základy matematiky Základy kombinatoriky a kombinatorická pravděpodobnost Jan Strejček Obsah IB112 Základy matematiky: Základy kombinatoriky a kombinatorická pravděpodobnost 2/57 Výběry prvků bez

Více

Rozdělování dat do trénovacích a testovacích množin

Rozdělování dat do trénovacích a testovacích množin Rozdělování dat do trénovacích a testovacích množin Marcel Jiřina Rozpoznávání je důležitou metodou při zpracování reálných úloh. Rozpoznávání je definováno dvěma kroky a to pořízením dat o reálném rozpoznávaném

Více

i=1 Přímka a úsečka. Body, které leží na přímce procházející body a a b můžeme zapsat pomocí parametrické rovnice

i=1 Přímka a úsečka. Body, které leží na přímce procházející body a a b můžeme zapsat pomocí parametrické rovnice I. Funkce dvou a více reálných proměnných 1. Úvod Značení: V textu budeme používat označení: N pro množinu všech přirozených čísel; R pro množinu všech reálných čísel; R n pro množinu všech uspořádaných

Více

Náhodné chyby přímých měření

Náhodné chyby přímých měření Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.

Více

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost

Více

Úvod do informatiky. Miroslav Kolařík

Úvod do informatiky. Miroslav Kolařík Úvod do informatiky přednáška devátá Miroslav Kolařík Zpracováno dle učebního textu prof. Bělohlávka: Úvod do informatiky, KMI UPOL, Olomouc 2008 Obsah 1 Kombinatorika: princip inkluze a exkluze 2 Počítání

Více

Stavový model a Kalmanův filtr

Stavový model a Kalmanův filtr Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,

Více

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}.

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}. 5. Náhodná veličina Poznámka: Pro popis náhodného pokusu jsme zavedli pojem jevového pole S jako množiny všech možných výsledků a pravděpodobnost náhodných jevů P jako míru výskytů jednotlivých výsledků.

Více

1 Linearní prostory nad komplexními čísly

1 Linearní prostory nad komplexními čísly 1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)

Více

Usuzování za neurčitosti

Usuzování za neurčitosti Usuzování za neurčitosti 25.11.2014 8-1 Usuzování za neurčitosti Hypotetické usuzování a zpětná indukce Míry postačitelnosti a nezbytnosti Kombinace důkazů Šíření pravděpodobnosti v inferenčních sítích

Více

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY

Více

Cvičení 5 - Inverzní matice

Cvičení 5 - Inverzní matice Cvičení 5 - Inverzní matice Pojem Inverzní matice Buď A R n n. A je inverzní maticí k A, pokud platí, AA = A A = I n. Matice A, pokud existuje, je jednoznačná. A stačí nám jen jedna rovnost, aby platilo,

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

Cvičení ze statistiky - 7. Filip Děchtěrenko

Cvičení ze statistiky - 7. Filip Děchtěrenko Cvičení ze statistiky - 7 Filip Děchtěrenko Minule bylo.. Probrali jsme spojité modely Tyhle termíny by měly být známé: Rovnoměrné rozdělení Střední hodnota Mccalova transformace Normální rozdělení Přehled

Více

Přednáška 3: Limita a spojitost

Přednáška 3: Limita a spojitost 3 / 1 / 17, 1:38 Přednáška 3: Limita a spojitost Limita funkce Nejdříve je potřeba upřesnit pojmy, které přesněji popisují (topologickou) strukturu množiny reálných čísel, a to zejména pojem okolí 31 Definice

Více

Markovské metody pro modelování pravděpodobnosti

Markovské metody pro modelování pravděpodobnosti Markovské metody pro modelování pravděpodobnosti rizikových stavů 1 Markovský řetězec Budeme uvažovat náhodný proces s diskrétním časem (náhodnou posloupnost) X(t), t T {0, 1, 2,... } s konečnou množinou

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

Teoretická rozdělení

Teoretická rozdělení Teoretická rozdělení Diskrétní rozdělení Obsah kapitoly Studijní cíle Doba potřebná ke studiu Pojmy k zapamatování Úvod Některá teoretická rozdělení diskrétních veličin: Alternativní rozdělení Binomické

Více

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague 1 / 23 Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague 2 / 23 biologové často potřebují najít často se opakující sekvence DNA tyto sekvence bývají relativně krátké,

Více

Moderní systémy pro získávání znalostí z informací a dat

Moderní systémy pro získávání znalostí z informací a dat Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:

Více

Odhady - Sdružené rozdělení pravděpodobnosti

Odhady - Sdružené rozdělení pravděpodobnosti Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy

Více

12 DYNAMIKA SOUSTAVY HMOTNÝCH BODŮ

12 DYNAMIKA SOUSTAVY HMOTNÝCH BODŮ 56 12 DYNAMIKA SOUSTAVY HMOTNÝCH BODŮ Těžiště I. impulsová věta - věta o pohybu těžiště II. impulsová věta Zákony zachování v izolované soustavě hmotných bodů Náhrada pohybu skutečných objektů pohybem

Více

Náhodné (statistické) chyby přímých měření

Náhodné (statistické) chyby přímých měření Náhodné (statistické) chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně

Více

Informační a znalostní systémy

Informační a znalostní systémy Informační a znalostní systémy Teorie pravděpodobnosti není v podstatě nic jiného než vyjádření obecného povědomí počítáním. P. S. de Laplace Pravděpodobnost a relativní četnost Pokusy, výsledky nejsou

Více

Nejdřív spočítáme jeden příklad na variaci konstant pro lineární diferenciální rovnici 2. řádu s kostantními koeficienty. y + y = 4 sin t.

Nejdřív spočítáme jeden příklad na variaci konstant pro lineární diferenciální rovnici 2. řádu s kostantními koeficienty. y + y = 4 sin t. 1 Variace konstanty Nejdřív spočítáme jeden příklad na variaci konstant pro lineární diferenciální rovnici 2. řádu s kostantními koeficienty. Příklad 1 Najděte obecné řešení rovnice: y + y = 4 sin t. Co

Více

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.) Lékařská biofyzika, výpočetní technika I Biostatistika Josef Tvrdík (doc. Ing. CSc.) Přírodovědecká fakulta, katedra informatiky josef.tvrdik@osu.cz konzultace úterý 14.10 až 15.40 hod. http://www1.osu.cz/~tvrdik

Více

Cvičení ze statistiky - 8. Filip Děchtěrenko

Cvičení ze statistiky - 8. Filip Děchtěrenko Cvičení ze statistiky - 8 Filip Děchtěrenko Minule bylo.. Dobrali jsme normální rozdělení Tyhle termíny by měly být známé: Centrální limitní věta Laplaceho věta (+ korekce na spojitost) Konfidenční intervaly

Více

5.1. Klasická pravděpodobnst

5.1. Klasická pravděpodobnst 5. Pravděpodobnost Uvažujme množinu Ω všech možných výsledků náhodného pokusu, například hodu mincí, hodu kostkou, výběru karty z balíčku a podobně. Tato množina se nazývá základní prostor a její prvky

Více

Řešení úloh z TSP MU SADY S 1

Řešení úloh z TSP MU SADY S 1 Řešení úloh z TSP MU SADY S 1 projekt RESENI-TSP.CZ úlohy jsou vybírány z dříve použitých TSP MU autoři řešení jsou zkušení lektoři vzdělávací agentury Kurzy-Fido.cz Masarykova univerzita nabízí uchazečům

Více

Pravděpodobnost, náhoda, kostky

Pravděpodobnost, náhoda, kostky Pravděpodobnost, náhoda, kostky Radek Pelánek IV122 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností připomenutí, souvislosti

Více

TEORIE PRAVDĚPODOBNOSTI. 2. cvičení

TEORIE PRAVDĚPODOBNOSTI. 2. cvičení TEORIE RAVDĚODONOSTI 2. cvičení Základní pojmy Klasická def. Statistická def. Geometrická def. odmíněná prav. ayesův teorém Test Základní pojmy Náhodný pokus - je každý konečný děj, jehož výsledek není

Více

Strojové učení Marta Vomlelová

Strojové učení Marta Vomlelová Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer

Více

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru 2. Systémy lineárních rovnic V této kapitole se budeme zabývat soustavami lineárních rovnic s koeficienty z pole reálných případně komplexních čísel. Uvádíme podmínku pro existenci řešení systému lineárních

Více

7 Ortogonální a ortonormální vektory

7 Ortogonální a ortonormální vektory 7 Ortogonální a ortonormální vektory Ze vztahu (5) pro výpočet odchylky dvou vektorů vyplývá, že nenulové vektory u, v jsou na sebe kolmé právě tehdy, když u v =0. Tato skutečnost nám poslouží k zavedení

Více

Teorie pravěpodobnosti 1

Teorie pravěpodobnosti 1 Teorie pravěpodobnosti 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Náhodný jev a pravděpodobnost Každou zákonitost sledovanou v přírodě lze zjednodušeně charakterizovat jako

Více

Diagnostika regrese pomocí grafu 7krát jinak

Diagnostika regrese pomocí grafu 7krát jinak StatSoft Diagnostika regrese pomocí grafu 7krát jinak V tomto článečku si uděláme exkurzi do teorie regresní analýzy a detailně se podíváme na jeden jediný diagnostický graf. Jedná se o graf Předpovědi

Více

pravděpodobnosti a Bayesova věta

pravděpodobnosti a Bayesova věta NMUMP0 (Pravděpodobnost a matematická statistika I) Nezávislost, podmíněná pravděpodobnost, věta o úplné pravděpodobnosti a Bayesova věta. Házíme dvěma pravidelnými kostkami. (a) Jaká je pravděpodobnost,

Více

Lingebraické kapitolky - Analytická geometrie

Lingebraické kapitolky - Analytická geometrie Lingebraické kapitolky - Analytická geometrie Jaroslav Horáček KAM MFF UK 2013 Co je to vektor? Šipička na tabuli? Ehm? Množina orientovaných úseček majících stejný směr. Prvek vektorového prostoru. V

Více

ANALYTICKÁ GEOMETRIE LINEÁRNÍCH ÚTVARŮ V ROVINĚ

ANALYTICKÁ GEOMETRIE LINEÁRNÍCH ÚTVARŮ V ROVINĚ ANALYTICKÁ GEOMETRIE LINEÁRNÍCH ÚTVARŮ V ROVINĚ Parametrické vyjádření přímky v rovině Máme přímku p v rovině určenou body A, B. Sestrojíme vektor u = B A. Pro bod B tím pádem platí: B = A + u. Je zřejmé,

Více

Náhodné jevy. Teorie pravděpodobnosti. Náhodné jevy. Operace s náhodnými jevy

Náhodné jevy. Teorie pravděpodobnosti. Náhodné jevy. Operace s náhodnými jevy Teorie pravděpodobnosti Náhodný pokus skončí jedním z řady možných výsledků předem nevíme, jak skončí (náhoda) příklad: hod kostkou, zítřejší počasí,... Pravděpodobnost zkoumá náhodné jevy (mohou, ale

Více

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet. Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu

Více

Derivace goniometrických funkcí

Derivace goniometrických funkcí Derivace goniometrických funkcí Shrnutí Jakub Michálek, Tomáš Kučera Odvodí se základní vztahy pro derivace funkcí sinus a cosinus za pomoci věty o třech itách, odvodí se také několik typických it pomocí

Více

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

9 Kolmost vektorových podprostorů

9 Kolmost vektorových podprostorů 9 Kolmost vektorových podprostorů Od kolmosti dvou vektorů nyní přejdeme ke kolmosti dvou vektorových podprostorů. Budeme se zabývat otázkou, kdy jsou dva vektorové podprostory na sebe kolmé a jak to poznáme.

Více

Strojové učení se zaměřením na vliv vstupních dat

Strojové učení se zaměřením na vliv vstupních dat Strojové učení se zaměřením na vliv vstupních dat Irina Perfilieva, Petr Hurtík, Marek Vajgl Centre of excellence IT4Innovations Division of the University of Ostrava Institute for Research and Applications

Více

Tabulka 1. Výběr z datové tabulky

Tabulka 1. Výběr z datové tabulky 1. Zadání domácího úkolu Vyberte si datový soubor obsahující alespoň jednu kvalitativní a jednu kvantitativní proměnnou s alespoň 30 statistickými jednotkami (alespoň 30 jednotlivých údajů). Zdroje dat

Více

Lineární diskriminační funkce. Perceptronový algoritmus.

Lineární diskriminační funkce. Perceptronový algoritmus. Lineární. Perceptronový algoritmus. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics P. Pošík c 2012 Artificial Intelligence 1 / 12 Binární klasifikace

Více

AVDAT Mnohorozměrné metody, metody klasifikace

AVDAT Mnohorozměrné metody, metody klasifikace AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných

Více

Drsná matematika IV 7. přednáška Jak na statistiku?

Drsná matematika IV 7. přednáška Jak na statistiku? Drsná matematika IV 7. přednáška Jak na statistiku? Jan Slovák Masarykova univerzita Fakulta informatiky 2. 4. 2012 Obsah přednášky 1 Literatura 2 Co je statistika? 3 Popisná statistika Míry polohy statistických

Více

Binární vyhledávací stromy pokročilé partie

Binární vyhledávací stromy pokročilé partie Binární vyhledávací stromy pokročilé partie KMI/ALS lekce Jan Konečný 30.9.204 Literatura Cormen Thomas H., Introduction to Algorithms, 2nd edition MIT Press, 200. ISBN 0-262-5396-8 6, 3, A Knuth Donald

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

1 Mnohočleny a algebraické rovnice

1 Mnohočleny a algebraické rovnice 1 Mnohočleny a algebraické rovnice 1.1 Pojem mnohočlenu (polynomu) Připomeňme, že výrazům typu a 2 x 2 + a 1 x + a 0 říkáme kvadratický trojčlen, když a 2 0. Číslům a 0, a 1, a 2 říkáme koeficienty a písmenem

Více

Přednáška 13 Redukce dimenzionality

Přednáška 13 Redukce dimenzionality Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /

Více

Předpovídejte snadno a rychle

Předpovídejte snadno a rychle Předpovídejte snadno a rychle Newsletter Statistica ACADEMY Téma: Časové řady, exponenciální vyrovnávání Typ článku: Příklad Dnes se budeme zabývat situací, kdy chceme předpovídat, jak se bude v čase vyvíjet

Více

4.3.3 Základní goniometrické vzorce I

4.3.3 Základní goniometrické vzorce I 4.. Základní goniometrické vzorce I Předpoklady: 40 Dva vzorce, oba známe už z prváku. Pro každé R platí: + =. Důkaz: Použijeme definici obou funkcí v jednotkové kružnici: T sin() T 0 - cos() S 0 R - Obě

Více

2 Hlavní charakteristiky v analýze přežití

2 Hlavní charakteristiky v analýze přežití 2 Hlavní charakteristiky v analýze přežití Předpokládané výstupy z výuky: 1. Student umí definovat funkci přežití, rizikovou funkci a kumulativní rizikovou funkci a zná funkční vazby mezi nimi 2. Student

Více

populace soubor jednotek, o jejichž vlastnostech bychom chtěli vypovídat letní semestr Definice subjektech.

populace soubor jednotek, o jejichž vlastnostech bychom chtěli vypovídat letní semestr Definice subjektech. Populace a Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 2012 1 populace soubor jednotek, o jejichž vlastnostech bychom

Více

M - Příprava na 1. zápočtový test - třída 3SA

M - Příprava na 1. zápočtový test - třída 3SA M - Příprava na 1. zápočtový test - třída 3SA Autor: Mgr. Jaromír JUŘEK Kopírování a jakékoliv další využití výukového materiálu je povoleno pouze s uvedením odkazu na www.jarjurek.cz. VARIACE 1 Tento

Více

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti. Přednáška č. 1 Úvod do statistiky a počtu pravděpodobnosti Statistika Statistika je věda a postup jak rozvíjet lidské znalosti použitím empirických dat. Je založena na matematické statistice, která je

Více

Zimní semestr akademického roku 2014/ prosince 2014

Zimní semestr akademického roku 2014/ prosince 2014 Cvičení k předmětu BI-ZMA Tomáš Kalvoda Katedra aplikované matematiky FIT ČVUT Matěj Tušek Katedra matematiky FJFI ČVUT Obsah Cvičení Zimní semestr akademického roku 2014/2015 2. prosince 2014 Předmluva

Více

Nalezněte obecné řešení diferenciální rovnice (pomocí separace proměnných) a řešení Cauchyho úlohy: =, 0 = 1 = 1. ln = +,

Nalezněte obecné řešení diferenciální rovnice (pomocí separace proměnných) a řešení Cauchyho úlohy: =, 0 = 1 = 1. ln = +, Příklad Nalezněte obecné řešení diferenciální rovnice (pomocí separace proměnných) a řešení Cauchyho úlohy: a) =, 0= b) =, = c) =2, = d) =2, 0= e) =, 0= f) 2 =0, = g) + =0, h) =, = 2 = i) =, 0= j) sin+cos=0,

Více

Pravděpodobně skoro správné. PAC učení 1

Pravděpodobně skoro správné. PAC učení 1 Pravděpodobně skoro správné (PAC) učení PAC učení 1 Výpočetní teorie strojového učení Věta o ošklivém kačátku. Nechť E je klasifikovaná trénovací množina pro koncept K, který tvoří podmnožinu konečného

Více

Pravděpodobnost a statistika

Pravděpodobnost a statistika Pravděpodobnost a statistika Teorie pravděpodobnosti popisuje vznik náhodných dat, zatímco matematická statistika usuzuje z dat na charakter procesů, jimiž data vznikla. NÁHODNOST - forma existence látky,

Více

1 Mnohočleny a algebraické rovnice

1 Mnohočleny a algebraické rovnice 1 Mnohočleny a algebraické rovnice 1.1 Pojem mnohočlenu (polynomu) Připomeňme, že výrazům typu a 2 x 2 + a 1 x + a 0 říkáme kvadratický trojčlen, když a 2 0. Číslům a 0, a 1, a 2 říkáme koeficienty a písmenem

Více

Intuitivní pojem pravděpodobnosti

Intuitivní pojem pravděpodobnosti Pravděpodobnost Intuitivní pojem pravděpodobnosti Intuitivní pojem pravděpodobnosti Pravděpodobnost zkoumaného jevu vyjadřuje míru naděje, že tento jev nastane. Řekneme-li, že má nějaký jev pravděpodobnost

Více

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a báli jste se zeptat Jedinečnou funkcí statistiky je, že umožňuje vědci číselně vyjádřit nejistotu v jeho závěrech. (G. W. Snedecor)

Více

1 Řešení soustav lineárních rovnic

1 Řešení soustav lineárních rovnic 1 Řešení soustav lineárních rovnic 1.1 Lineární rovnice Lineární rovnicí o n neznámých x 1,x 2,..., x n s reálnými koeficienty rozumíme rovnici ve tvaru a 1 x 1 + a 2 x 2 +... + a n x n = b, (1) kde koeficienty

Více

4.3.4 Základní goniometrické vzorce I

4.3.4 Základní goniometrické vzorce I .. Základní goniometrické vzorce I Předpoklady: 0 Dva vzorce, oba známe už z prváku. Pro každé R platí: + =. Důkaz: Použijeme definici obou funkcí v jednotkové kružnici: T sin() T 0 - cos() S 0 R - Obě

Více

PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII

PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII V úvodu analytické geometrie jsme vysvětlili, že její hlavní snahou je popsat geometrické útvary (body, vektory, přímky, kružnice,...) pomocí čísel nebo proměnných.

Více

KOMPLEXNÍ ČÍSLA INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ

KOMPLEXNÍ ČÍSLA INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ KOMPLEXNÍ ČÍSLA Gymnázium Jiřího Wolkera v Prostějově Výukové materiály z matematiky pro vyšší gymnázia Autoři projektu Student na prahu 21. století - využití ICT ve vyučování matematiky na gymnáziu INVESTICE

Více

VEKTORY. Obrázek 1: Jediný vektor. Souřadnice vektoru jsou jeho průměty do souřadných os x a y u dvojrozměrného vektoru, AB = B A

VEKTORY. Obrázek 1: Jediný vektor. Souřadnice vektoru jsou jeho průměty do souřadných os x a y u dvojrozměrného vektoru, AB = B A VEKTORY Vektorem se rozumí množina všech orientovaných úseček, které mají stejnou velikost, směr a orientaci, což vidíme na obr. 1. Jedna konkrétní orientovaná úsečka se nazývá umístění vektoru na obr.

Více

Obsahy. Trojúhelník = + + 2

Obsahy. Trojúhelník = + + 2 Obsahy Obsah nám říká, jak velkou plochu daný útvar zaujímá. Třeba jak velký máme byt nebo pozemek kolik metrů čtverečných (m 2 ), hektarů (ha), centimetrů čtverečných (cm 2 ), Základní jednotkou obsahu

Více

Pravděpodobnost a aplikovaná statistika

Pravděpodobnost a aplikovaná statistika Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti

Více

JčU - Cvičení z matematiky pro zemědělské obory (doc. RNDr. Nýdl, CSc & spol.) Minitest MT4

JčU - Cvičení z matematiky pro zemědělské obory (doc. RNDr. Nýdl, CSc & spol.) Minitest MT4 ŘEŠENÍ MINITESTŮ JčU - Cvičení z matematiky pro zemědělské obory (doc. RNDr. Nýdl, CSc & spol.) Minitest MT4. Z daných tří soustav rovnic o neznámých x, x vyberte právě všechny ty, které jsou regulární.

Více

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je

Více

Aplikovaná statistika v R - cvičení 3

Aplikovaná statistika v R - cvičení 3 Aplikovaná statistika v R - cvičení 3 Filip Děchtěrenko Matematicko-fyzikální fakulta filip.dechterenko@gmail.com 5.8.2014 Filip Děchtěrenko (MFF UK) Aplikovaná statistika v R 5.8.2014 1 / 10 Lineární

Více

2.1.4 Funkce, definiční obor funkce. π 4. Předpoklady: 2103. Pedagogická poznámka: Následující ukázky si studenti do sešitů nepřepisují.

2.1.4 Funkce, definiční obor funkce. π 4. Předpoklady: 2103. Pedagogická poznámka: Následující ukázky si studenti do sešitů nepřepisují. .. Funkce, definiční obor funkce Předpoklady: 03 Pedagogická poznámka: Následující ukázky si studenti do sešitů nepřepisují. Uděláme si na tabuli jenom krátký seznam: S = a, y = x, s = vt, výška lidí v

Více