Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.
|
|
- Simona Jandová
- před 6 lety
- Počet zobrazení:
Transkript
1 Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační funkce Optimální rozdělující nadplocha 4 Optimální rozdělující nadplocha Velikost marginu Učení optimální rozdělující nadplochy Optimální rozdělující nadplocha: závěrečné poznámky Demo: optimální rozdělující nadplocha Když lineární hranice nestačí... Rozšíření báze Dvě soustavy souřadnic Rozšíření báze: poznámky Optimální rozdělujíci nadplocha s rozšířením báze Kernel trik Support vector machine Demo: SVM s lineárním jádrem Demo: SVM s Gaussovským (RBF) jádrem Boosting Ensembles, committees Boosting AdaBoost AdaBoost graficky AdaBoost: poznámky Závěr
2 Opakování / 6 Lineární diskriminační funkce Binární klasifikace objektů x (klasifikace do tříd, dichotomie): Stačí diskriminační funkce Pravidlo: f(x i ) > y i = + f(x i ) < y i = neboli y i = sign( f(x)) Učení lin. diskr. funkce: např. perceptronový algoritmus: váhový vektor je váženým součtem trénovacích bodů x i najde jakoukoli separující nadplochu, pokud taková existuje Která z nekonečného množství rozdělujících nadploch je optimální? P. Pošík c Artificial Intelligence 3 / 6 Optimální rozdělující nadplocha 4 / 6 Optimální rozdělující nadplocha Margin (odstup): šířka pásma, v němž se hranice mezi třídami může pohybovat (kolmo ke své směrnici), aniž by se dotkla některého bodu Lineární klasifikátor s maximálním marginem w T x+w = w T x+w = w T x+w = Support vectors: datové vektory ležící v plus-rovině nebo minus-rovině pouze ty mají vliv na hranici mezi třídami Proč maximalizovat margin? Intuitivně se to zdá být nejbezpečnější Pokud bychom udělali malou chybu při stanovování hranice, máme nejmenší šanci, že způsobíme špatnou klasifikaci Model je stabilní vůči změně trénovací množiny, pokud nedojde ke změně některého ze support vectors Existují teoretické výsledky (založené na VC dimenzi), že hledat klasifikátor s maximálním marginem je dobré Maximální margin v praxi dobře funguje Plus-rovina: {x : w T x+w = } Minus-rovina: {x : w T x+w = } Hranice mezi třídami: {x : w T x+w = } P. Pošík c Artificial Intelligence 5 / 6
3 Velikost marginu Jak vypočítat velikost marginu M ze známých w a w? w T x+w = x + w T x+w = M w T x+w = w x Víme, že: w T x + + w = w T x + w = x + λw = x + Velikost marginu: Můžeme odvodit: w T (x + x ) = w T (x + λw x ) = λw T w = λ = w T w = w M = x + x = λw = λ w = w w = w P. Pošík c Artificial Intelligence 6 / 6 Učení optimální rozdělující nadplochy Chceme maximalizovat margin M = při splnění omezení na správnou klasifikaci. To lze formulovat jako úlohu kvadratického w programování (QP). Primární úloha QP: minimalizuj w T w vzhledem k w,..., w D tak, aby y i (w T x i + w ) Duální úloha QP: maximalizuj α i α i α j y i y j xi T x j vzhledem k α,..., α m i= i= j= tak, aby α i a α i y i =. i= Výpočet řešení primární úlohy z řešení duální úlohy: m w = α i y i x i, w = y k w T x k, i= kde (x k, y k ) je libovolný support vector. P. Pošík c Artificial Intelligence 7 / 6 3
4 Optimální rozdělující nadplocha: závěrečné poznámky Význam duální formulace: Úloha QP v duální formě je pro QP solvery snáze řešitelná než QP v primární formě. Klasifikovat nové body pak lze pomocí funkce f(x, w, w ) = sign(w T x+w ) = sign( α i y i xi T x+w ), i= t.j. data se v diskriminační funkci vyskytují jen ve formě skalárních součinů. Data s α i > jsou support vectors, takže součty mohou být jen přes support vectors. Duální formulace umožňuje využít dalších triků, o kterých se teprve dozvíte. Když data nejsou lineárně separabilní: I v tomto případě existuje formulace úlohy QP (soft margin). Primární úloha má dvojnásobný počet omezení, úloha tedy je složitější. Výsledky úlohy QP se soft marginem jsou stejného typu jako bez něj. P. Pošík c Artificial Intelligence 8 / 6 Demo: optimální rozdělující nadplocha P. Pošík c Artificial Intelligence 9 / 6 4
5 Když lineární hranice nestačí... / 6 Rozšíření báze a.k.a. vyrovnání příznakového porstoru. Proč? Lineární hranice nemusí být dostatečně flexibilní Využijeme algoritmy pro učení lineární diskriminační funkce i pro učení nelineárních modelů Jak? Zavedeme nový vícerozměrný obrazový prostor F Do tohoto prostoru přetransformujeme data (odvodíme nové příznaky): x z = Φ(x), x = (x, x,..., x D ) z = (Φ (x), Φ (x),..., Φ G (x)), přičemž obvykle D G. aučíme lineární model, který v původním prostoru nebude lineární f(z) = w z + w z +...+w G z G + w f(x) = w Φ (x)+w Φ (x)+...+w G Φ G (x)+w P. Pošík c Artificial Intelligence / 6 Dvě soustavy souřadnic Transformace do vícerozměrného prostoru obrazů Původní prostor Prostor obrazů x = (x, x,..., x D ) z = (z, z,..., z G ) z = log x z = x x 3 z 3 = e x... Učení lineární funkce v prostoru obrazů f(x) = w log x + w x x 3 + w 3 e x +...+w f(z) = w z + w z + w 3 z w P. Pošík c Artificial Intelligence / 6 elineární funkce v původním prostoru 5
6 Dvě soustavy souřadnic: graficky Transformace do vícerozměrného prostoru obrazů Původní prostor Prostor obrazů x 5 5 x x Učení lineární funkce v prostoru obrazů x x x P. Pošík c Artificial Intelligence 3 / 6 elineární funkce v původním prostoru Rozšíření báze: poznámky Výhody: univerzální, obecně použitelná metoda evýhody: zůstává na člověku zvolit, které nové příznaky dá učicímu algoritmu k dispozici data je třeba skutečně namapovat do obrazového prostoru Existuje metoda, jak využít rozšíření báze, aniž bychom mapování skutečně museli provést!!! P. Pošík c Artificial Intelligence 4 / 6 6
7 Optimální rozdělujíci nadplocha s rozšířením báze Připomeňme: při učení optimální rozdělující nadplochy se vektory x vyskytují pouze v optimalizačním kritériu α i α i α j y i y j xi T x j i= i= j= a v diskriminační funkci f(x) = sign( Použijeme-li rozšíření báze, změní se α i y i xi T x+w ). i= optimalizační kritérium na α i α i α j y i y j Φ(x i ) T Φ(x j ) i= i= j= a diskriminační funkce na f(x) = sign( i= α i y i Φ(x i ) T Φ(x)+w ). Místo skalárního součinu v obrazovém prostoru lze použít funkci K(x i, x j ) v optimalizačním kritériu α i α i α j y i y j K(x i, x j ) i= i= j= a v diskriminační funkci f(x) = sign( i= α i y i K(x i, x)+w ). P. Pošík c Artificial Intelligence 5 / 6 Kernel trik Existují funkce dvou vektorových argumentů (K(a, b)), jejichž hodnoty jsou rovny skalárnímu součinu (φ(a) T φ(b)) vektorů vzniklých namapováním obou původních vektorů do mnoharozměrného prostoru obrazů. Takovým funkcím se říká jádrové funkce nebo kernely. Kernel trik: Mějme lineární algoritmus, v němž se trénovací příklady vyskytují pouze ve skalárních součinech. Takový algoritmus lze znelinearizovat, když nahradíme skalární součiny dvou trénovacích vektorů jádrovou funkcí těchto vektorů. Výsledek je stejný, jako by se tentýž algoritmus učil v mnoharozměrném prostoru nelineárních bázových funkcí. Díky kernelům ovšem není nutné vlastní mapování provádět, algoritmus je mnohem efektivnější. Často používané kernely: Polynomiální: K(a, b) = (a T b+) d, kde d je stupeň polynomu. Gaussovský (RBF): K(a, b) = exp( a b σ ), kde σ je šířka Gaussiánu. P. Pošík c Artificial Intelligence 6 / 6 7
8 Support vector machine Support vector machine (SVM) = optimální rozdělující nadplocha + kernel trik P. Pošík c Artificial Intelligence 7 / 6 Demo: SVM s lineárním jádrem P. Pošík c Artificial Intelligence 8 / 6 8
9 Demo: SVM s Gaussovským (RBF) jádrem P. Pošík c Artificial Intelligence 9 / 6 Boosting / 6 Ensembles, committees Ensemble je komise různých modelů, jejichž predikce jsou sloučeny dohromady např. hlasováním nebo vážením. Jednotlivé metody si liší tím, jakým způsobem vytvářejí jednotlivé modely tak, aby byly různé. P. Pošík c Artificial Intelligence / 6 9
10 Boosting Boosting obecná metoda, jak ze slabých klasifikátorů vytvořit silný klasifikátor všechny modely jsou stejného typu, všechny jsou učeny stejným algoritmem různorodost modelů: každý z T modelů se učí na jinou podmnožinu trénovacích dat máme-li algoritmus pro učení slabého klasifikátoru, který umí konzistentně nacházet modely, jejichž přesnost je alespoň o málo větší než náhodné tipování, lze dokázat, že boosting umí vytvořit klasifikátor s vysokou úspěšností, např. 99 %. AdaBoost trénovací data všechny modely se učí na všech trénovacích datech (nikoli jen na podmnožinách) v každé iteraci t =,..., T se liší váhy D t (i) trénovacích bodů x i špatně zaklasifikované body mají v další iteraci větší váhu výsledný klasifikátor vážené hlasování P. Pošík c Artificial Intelligence / 6 AdaBoost Algoritmus : AdaBoost Vstup: Trénovací množina správně ohodnocených ( bodů: {x ) i, y i }, x i R D, y i {+, }, i =,..., m Výstup: Finální klasifikátor H final (x) = sign t= T α t h t (x) begin Inicializuj váhy trénovacích případů: D (i) = m. 3 for t =,..., T do 4 ajdi slabý klasifikátor h t 5 Spočti váženou chybu: ǫ t = i= m D t(i)i(y i = h t (x i )) 6 Spočti váhu modelu h t : α t = ln ( ǫt ǫ t ) > 7 Uprav váhy trénovacích bodů: D t+ (i) = D { t(i) e α t, pokud yi = h t (x i ), Z t e α t, pokud y i = h t (x i ), = D t(i) Z t exp( α t y i h t (x i )), kde Z t je normalizační konstanta. P. Pošík c Artificial Intelligence 3 / 6
11 AdaBoost graficky Iterace : Iterace: Iterace : Iterace: Iterace 3: Iterace: ǫ =.3 α = ǫ =. α = ǫ 3 =.3 α 3 =.9 Iterace: Iterace: Iterace: 3 Cely model = P. Pošík c Artificial Intelligence 4 / 6 AdaBoost: poznámky Trénovací chyba: označme γ t =.5 ǫ t, o co je t. model lepší než náhodné hádání označme γ = min t γ t, neboli všechny modely h(t) jsou na trénovací sadě úspěšnější než náhodné hádání alespoň o γ (platí také γ t : γ t γ > ) lze ukázat, že trénovací chyba Err Tr (H final ) e γ T P. Pošík c Artificial Intelligence 5 / 6
12 Závěr Metody pro binární klasifikaci objektů popsaných reálnými příznaky: učení lineární diskriminační funkce perceptron (pomalu konverguje) optimální rozdělující nadplocha (úloha QP) využití lineárních metod pro konstrukci nelineárních modelů rozšíření báze kernel trik (SVM) ensembles (AdaBoost) Poznámky: SVM: existují jádra umožňující využít SVM i pro nenumerické příznaky (např. pro klasifikaci textů) AdaBoost: algoritmus je možné využít i pro kategoriální příznaky P. Pošík c Artificial Intelligence 6 / 6
Lineární diskriminační funkce. Perceptronový algoritmus.
Lineární. Perceptronový algoritmus. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics P. Pošík c 2012 Artificial Intelligence 1 / 12 Binární klasifikace
Support Vector Machines (jemný úvod)
Support Vector Machines (jemný úvod) Osnova Support Vector Classifier (SVC) Support Vector Machine (SVM) jádrový trik (kernel trick) klasifikace s měkkou hranicí (soft-margin classification) hledání optimálních
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
Úvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
Výpočetní teorie učení. PAC učení. VC dimenze.
Výpočetní teorie učení. PAC učení. VC dimenze. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics COLT 2 Koncept...........................................................................................................
Preceptron přednáška ze dne
Preceptron 2 Pavel Křížek Přemysl Šůcha 6. přednáška ze dne 3.4.2001 Obsah 1 Lineární diskriminační funkce 2 1.1 Zobecněná lineární diskriminační funkce............ 2 1.2 Učení klasifikátoru........................
Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague
1 / 40 regula Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague regula 1 2 3 4 5 regula 6 7 8 2 / 40 2 / 40 regula Iterační pro nelineární e Bud f reálná funkce
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Přednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
Dnešní látka: Literatura: Kapitoly 3 a 4 ze skript Karel Rektorys: Matematika 43, ČVUT, Praha, Text přednášky na webové stránce přednášejícího.
Předmět: MA4 Dnešní látka: Od okrajových úloh v 1D k o. ú. ve 2D Laplaceův diferenciální operátor Variačně formulované okrajové úlohy pro parciální diferenciální rovnice a metody jejich přibližného řešení
Kybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
Interpolace, ortogonální polynomy, Gaussova kvadratura
Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz III. PŘÍZNAKOVÁ KLASIFIKACE - ÚVOD PŘÍZNAKOVÝ POPIS Příznakový obraz x zpracovávaných
Vytěžování znalostí z dat
Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 1/26 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
Strojové učení Marta Vomlelová
Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer
Úloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
FIT ČVUT MI-LOM Lineární optimalizace a metody. Dualita. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti
FIT ČVUT MI-LOM Lineární optimalizace a metody Dualita Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti Michal Černý, 2011 FIT ČVUT, MI-LOM, M. Černý, 2011: Dualita 2/5 Dualita Evropský
Rosenblattův perceptron
Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného
KLASIFIKACE DOKUMENTŮ PODLE TÉMATU
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY FAKULTA INFORMAČNÍCH TECHNOLOGIÍ ÚSTAV POČÍTAČOVÉ GRAFIKY A MULTIMÉDIÍ FACULTY OF INFORMATION TECHNOLOGY DEPARTMENT OF COMPUTER GRAPHICS AND
Aplikovaná numerická matematika
Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních
Co jsme udělali: Au = f, u D(A)
Předmět: MA4 Dnešní látka: Od okrajových úloh v 1D k o. ú. ve 2D Laplaceův diferenciální operátor Variačně formulované okrajové úlohy pro parciální diferenciální rovnice a metody jejich přibližného řešení
Vojtěch Franc. Biometrie ZS Poděkování Janu Šochmanovi za slajdy vysvětlující AdaBoost
Rozpoznávání tváří I Vojtěch Franc Centrum strojového vnímání, ČVUT FEL Praha Biometrie ZS 2013 Poděkování Janu Šochmanovi za slajdy vysvětlující AdaBoost Úlohy rozpoznávání tváří: Detekce Cíl: lokalizovat
Klasifikace a rozpoznávání. Extrakce příznaků
Klasifikace a rozpoznávání Extrakce příznaků Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám
Statistická teorie učení
Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální
Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů
Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci
maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést
Úlohy k zamyšlení 1. Zdůvodněte, proč třetí řádek Hornerova schématu pro vyhodnocení polynomu p v bodě c obsahuje koeficienty polynomu r, pro který platí p(x) = (x c) r(x) + p(c). 2. Dokažte, že pokud
1 Linearní prostory nad komplexními čísly
1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)
Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:
Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová
Trénování sítě pomocí učení s učitelem
Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup
Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice
Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u
Numerická matematika 1
Numerická matematika 1 Obsah 1 Řešení nelineárních rovnic 3 1.1 Metoda půlení intervalu....................... 3 1.2 Metoda jednoduché iterace..................... 4 1.3 Newtonova metoda..........................
0.1 Úvod do lineární algebry
Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Lineární rovnice o 2 neznámých Definice 011 Lineární rovnice o dvou neznámých x, y je rovnice, která může být vyjádřena ve tvaru ax + by = c, kde
Numerické metody optimalizace - úvod
Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu
Lineární algebra : Metrická geometrie
Lineární algebra : Metrická geometrie (16. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 6. května 2014, 10:42 1 2 Úvod Zatím jsme se lineární geometrii věnovali v kapitole o lineárních
Matematika 2 pro PEF PaE
Vektorové prostory 1 / 17 Matematika 2 pro PEF PaE 8. Vektorové prostory Přemysl Jedlička Katedra matematiky, TF ČZU Vektorové prostory Vektorové prostory a podprostory 2 / 17 vektorového prostoru Množina
19 Hilbertovy prostory
M. Rokyta, MFF UK: Aplikovaná matematika III kap. 19: Hilbertovy prostory 34 19 Hilbertovy prostory 19.1 Úvod, základní pojmy Poznámka (připomenutí). Necht (X,(, )) je vektorový prostor se skalárním součinem
Parametrická rovnice přímky v rovině
Parametrická rovnice přímky v rovině Nechť je v kartézské soustavě souřadnic dána přímka AB. Nechť vektor u = B - A. Pak libovolný bod X[x; y] leží na přímce AB právě tehdy, když vektory u a X - A jsou
Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic
Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je
a počtem sloupců druhé matice. Spočítejme součin A.B. Označme matici A.B = M, pro její prvky platí:
Řešené příklady z lineární algebry - část 1 Typové příklady s řešením Příklady jsou určeny především k zopakování látky před zkouškou, jsou proto řešeny se znalostmi učiva celého semestru. Tento fakt se
Lineární programování
Lineární programování Petr Tichý 19. prosince 2012 1 Outline 1 Lineární programování 2 Optimalita a dualita 3 Geometrie úlohy 4 Simplexová metoda 2 Lineární programování Lineární program (1) min f(x) za
PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti
PROSTORY SE SKALÁRNÍM SOUČINEM Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx, y) = λ(x,
Matematika I 12a Euklidovská geometrie
Matematika I 12a Euklidovská geometrie Jan Slovák Masarykova univerzita Fakulta informatiky 3. 12. 2012 Obsah přednášky 1 Euklidovské prostory 2 Odchylky podprostorů 3 Standardní úlohy 4 Objemy Plán přednášky
VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY
VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY Jan Krejčí 31. srpna 2006 jkrejci@physics.ujep.cz http://physics.ujep.cz/~jkrejci Obsah 1 Přímé metody řešení soustav lineárních rovnic 3 1.1 Gaussova eliminace...............................
Necht L je lineární prostor nad R. Operaci : L L R nazýváme
Skalární součin axiomatická definice odvození velikosti vektorů a úhlu mezi vektory geometrická interpretace ortogonalita vlastnosti ortonormálních bázi [1] Definice skalárního součinu Necht L je lineární
Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44
Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný
Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda
Předmět: MA 4 Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Četba: Text o lineární algebře v Příručce přežití na webových
15 Maticový a vektorový počet II
M. Rokyta, MFF UK: Aplikovaná matematika III kap. 15: Maticový a vektorový počet II 1 15 Maticový a vektorový počet II 15.1 Úvod Opakování z 1. ročníku (z kapitoly 8) Označení. Množinu všech reálných resp.
K oddílu I.1 základní pojmy, normy, normované prostory
ÚVOD DO FUNKCIONÁLNÍ ANALÝZY PŘÍKLADY PRO POROZUMĚNÍ LÁTCE ZS 2015/2016 PŘÍKLADY KE KAPITOLE I K oddílu I1 základní pojmy, normy, normované prostory Příklad 1 Necht X je reálný vektorový prostor a : X
Martin NESLÁDEK. 14. listopadu 2017
Martin NESLÁDEK Faculty of mechanical engineering, CTU in Prague 14. listopadu 2017 1 / 22 Poznámky k úlohám řešeným MKP Na přesnost simulace pomocí MKP a prostorové rozlišení výsledků má vliv především:
Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma
Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění Jan Klíma Obsah Motivace & cíle práce Evoluční algoritmy Náhradní modelování Stromové regresní metody Implementace a výsledky
Miroslav Čepek. Fakulta Elektrotechnická, ČVUT. Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti
Vytěžování Dat Přednáška 12 Kombinování modelů Miroslav Čepek Pavel Kordík a Jan Černý (FIT) Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL)
Katedra aplikované matematiky FEI VŠB Technická univerzita Ostrava
Lineární algebra 9. přednáška: Ortogonalita Dalibor Lukáš Katedra aplikované matematiky FEI VŠB Technická univerzita Ostrava email: dalibor.lukas@vsb.cz http://www.am.vsb.cz/lukas/la Text byl vytvořen
14. přednáška. Přímka
14 přednáška Přímka Začneme vyjádřením přímky v prostoru Přímku v prostoru můžeme vyjádřit jen parametricky protože obecná rovnice přímky v prostoru neexistuje Přímka v prostoru je určena bodem A= [ a1
Učební texty k státní bakalářské zkoušce Matematika Základy lineárního programování. študenti MFF 15. augusta 2008
Učební texty k státní bakalářské zkoušce Matematika Základy lineárního programování študenti MFF 15. augusta 2008 1 15 Základy lineárního programování Požadavky Simplexová metoda Věty o dualitě (bez důkazu)
Numerické metody a programování. Lekce 4
Numerické metody a programování Lekce 4 Linarní algebra soustava lineárních algebraických rovnic a 11 a 12 x 2 a 1, N x N = b 1 a 21 a 22 x 2 a 2, N x N = b 2 a M,1 a M,2 x 2 a M,N x N = b M zkráceně A
Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group
Vytěžování dat Miroslav Čepek, Filip Železný Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme
oddělení Inteligentní Datové Analýzy (IDA)
Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {
Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika)
Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika) Kartézská soustava souřadnic je dána počátkem O a uspořádanou trojicí bodů E x,
CVIČNÝ TEST 2. OBSAH I. Cvičný test 2. Mgr. Václav Zemek. II. Autorské řešení 6 III. Klíč 15 IV. Záznamový list 17
CVIČNÝ TEST 2 Mgr. Václav Zemek OBSAH I. Cvičný test 2 II. Autorské řešení 6 III. Klíč 15 IV. Záznamový list 17 I. CVIČNÝ TEST 1 Od součtu libovolného čísla x a čísla 256 odečtěte číslo x zmenšené o 256.
7. přednáška Systémová analýza a modelování. Přiřazovací problém
Přiřazovací problém Přiřazovací problémy jsou podtřídou logistických úloh, kde lze obecně říci, že m dodavatelů zásobuje m spotřebitelů. Dalším specifikem je, že kapacity dodavatelů (ai) i požadavky spotřebitelů
ANALYTICKÁ GEOMETRIE LINEÁRNÍCH ÚTVARŮ V ROVINĚ
ANALYTICKÁ GEOMETRIE LINEÁRNÍCH ÚTVARŮ V ROVINĚ Parametrické vyjádření přímky v rovině Máme přímku p v rovině určenou body A, B. Sestrojíme vektor u = B A. Pro bod B tím pádem platí: B = A + u. Je zřejmé,
Báze konečněrozměrných vektorových prostorů, lineární zobrazení vektorových prostorů
Báze konečněrozměrných vektorových prostorů, lineární zobrazení vektorových prostorů Buď (V, +, ) vektorový prostor nad tělesem (T, +, ) Připomeňme, že konečná posloupnost u 1, u 2,, u n vektorů z V je
Podobnostní transformace
Schurova věta 1 Podobnostní transformace a výpočet vlastních čísel Obecný princip: Úloha: Řešíme-li matematickou úlohu, je často velmi vhodné hledat její ekvivalentní formulaci tak, aby se řešení úlohy
3. Vícevrstvé dopředné sítě
3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze
1 Báze a dimenze vektorového prostoru 1
1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější
Teorie her a ekonomické rozhodování. 2. Maticové hry
Teorie her a ekonomické rozhodování 2. Maticové hry 2.1 Maticová hra Teorie her = ekonomická vědní disciplína, která se zabývá studiem konfliktních situací pomocí matematických modelů Hra v normálním tvaru
Dnes budeme učit agenty, jak zlepšit svůj
Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Úvodem Dnes budeme učit agenty, jak zlepšit svůj výkon při ř řešení š í budoucích úloh na základě pozorování
Třídy složitosti P a NP, NP-úplnost
Třídy složitosti P a NP, NP-úplnost Cíle přednášky: 1. Definovat, za jakých okolností můžeme problém považovat za efektivně algoritmicky řešitelný. 2. Charakterizovat určitou skupinu úloh, pro které není
Hammingův odhad. perfektní kódy. koule, objem koule perfektní kód. triviální, Hammingův, Golayův váhový polynom. výpočet. příklad
Hammingův odhad koule, objem koule perfektní kód perfektní kódy triviální, Hammingův, Golayův váhový polynom výpočet Hammingův kód H 3 Golayův kód G 23 obecně příklad ternární kód Tvrzení: Dán binární
CVIČNÝ TEST 43. OBSAH I. Cvičný test 2. Mgr. Tomáš Kotler. II. Autorské řešení 6 III. Klíč 13 IV. Záznamový list 15
CVIČNÝ TEST 43 Mgr. Tomáš Kotler OBSAH I. Cvičný test 2 II. Autorské řešení 6 III. Klíč 13 IV. Záznamový list 15 I. CVIČNÝ TEST 1 bod 1 Pro a, b R + určete hodnotu výrazu ( a b) 2 ( a + b) 2, víte-li,
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
e-mail: RadkaZahradnikova@seznam.cz 1. července 2010
Optimální výrobní program Radka Zahradníková e-mail: RadkaZahradnikova@seznam.cz 1. července 2010 Obsah 1 Lineární programování 2 Simplexová metoda 3 Grafická metoda 4 Optimální výrobní program Řešení
Úlohy k přednášce NMAG 101 a 120: Lineární algebra a geometrie 1 a 2,
Úlohy k přednášce NMAG a : Lineární algebra a geometrie a Verze ze dne. května Toto je seznam přímočarých příkladů k přednášce. Úlohy z tohoto seznamu je nezbytně nutné umět řešit. Podobné typy úloh se
vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých mocnin). Rozhodněte o definitnosti kvadratické formy κ(x).
Řešené příklady z lineární algebry - část 6 Typové příklady s řešením Příklad 6.: Kvadratickou formu κ(x) = x x 6x 6x x + 8x x 8x x vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých
EUKLIDOVSKÉ PROSTORY
EUKLIDOVSKÉ PROSTORY Necht L je lineární vektorový prostor nad tělesem reálných čísel R. Zobrazení (.,.) : L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx,
Typy příkladů na písemnou část zkoušky 2NU a vzorová řešení (doc. Martišek 2017)
Typy příkladů na písemnou část zkoušky NU a vzorová řešení (doc. Martišek 07). Vhodnou iterační metodou (tj. metodou se zaručenou konvergencí) řešte soustavu: x +x +4x 3 = 3.5 x 3x +x 3 =.5 x +x +x 3 =.5
2. prosince velikosti symboly a, b, je b ω a b = a b cosω (1) a. ω pro ω π/2, π platí a b = b a a (3) a b = a 1 b 1 + a 2 b 2 + a 3 b 3 (5)
Vektorové prostory se skalárním součinem 2. prosince 25 1 Skalární součin geometrických vektorů Skalární součin geometrických vektorů je definován jako součin jejich velikostí násobený kosinem jejich odchylky.
Cyklografie. Cyklický průmět bodu
Cyklografie Cyklografie je nelineární zobrazovací metoda - bodům v prostoru odpovídají kružnice v rovině a naopak. Úlohy v rovině pak převádíme na řešení prostorových úloh, např. pomocí cyklografie řešíme
0.1 Úvod do lineární algebry
Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Vektory Definice 011 Vektorem aritmetického prostorur n budeme rozumět uspořádanou n-tici reálných čísel x 1, x 2,, x n Definice 012 Definice sčítání
Nelineární rovnice. Numerické metody 6. května FJFI ČVUT v Praze
Nelineární rovnice Numerické metody 6. května 2018 FJFI ČVUT v Praze 1 Úvod Úvod Ohraničení kořene Hledání kořene Soustava Programy 1 Úvod Úvod - Úloha Hledáme bod x, ve kterém je splněno pro zadanou funkci
3. Přednáška: Line search
Úloha: 3. Přednáška: Line search min f(x), x R n kde x R n, n 1 a f : R n R je dvakrát spojitě diferencovatelná. Iterační algoritmy: Začínám v x 0 a vytvářím posloupnost iterací {x k } k=0, tak, aby minimum
Pozn. 1. Při návrhu aproximace bychom měli aproximační funkci vybírat tak, aby vektory ϕ (i) byly lineárně
9. Řešení typických úloh diskrétní metodou nejmenších čtverců. DISKRÉTNÍ METODA NEJMENŠÍCH ČTVERCŮ použití: v případech, kdy je nevhodná interpolace využití: prokládání dat křivkami, řešení přeurčených
6 Skalární součin. u v = (u 1 v 1 ) 2 +(u 2 v 2 ) 2 +(u 3 v 3 ) 2
6 Skalární součin Skalární součin 1 je operace, která dvěma vektorům (je to tedy binární operace) přiřazuje skalár (v našem případě jde o reálné číslo, obecně se jedná o prvek nějakého tělesa T ). Dovoluje
3.2. ANALYTICKÁ GEOMETRIE ROVINY
3.2. ANALYTICKÁ GEOMETRIE ROVINY V této kapitole se dozvíte: jak popsat rovinu v třídimenzionálním prostoru; jak analyzovat vzájemnou polohu bodu a roviny včetně jejich vzdálenosti; jak analyzovat vzájemnou
1 Lineární prostory a podprostory
Lineární prostory a podprostory Přečtěte si: Učebnice AKLA, kapitola první, podkapitoly. až.4 včetně. Cvičení. Které z následujících množin jsou lineárními prostory s přirozenými definicemi operací?. C
Matematika pro informatiky
(FIT ČVUT v Praze) Konvexní analýza 13.týden 1 / 1 Matematika pro informatiky Jaroslav Milota Fakulta informačních technologíı České vysoké učení technické v Praze Letní semestr 2010/11 Extrémy funkce
verze 1.3 kde ρ(, ) je vzdálenost dvou bodů v R r. Redukovaným ε-ovým okolím nazveme ε-ové okolí bodu x 0 mimo tohoto bodu, tedy množinu
Úvod Diferenciální počet více proměnných verze.3 Následující text popisuje základy diferenciálního počtu více proměnných. Měl by sloužit především studentům předmětu MATEMAT na Univerzitě Hradec Králové
Numerická stabilita algoritmů
Numerická stabilita algoritmů Petr Tichý 9. října 2013 1 Numerická stabilita algoritmů Pravidla v konečné aritmetice Pro počítání v konečné aritmetice počítače platí určitá pravidla, která jsou důležitá
Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s
Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných
Kombinatorická minimalizace
Kombinatorická minimalizace Cílem je nalézt globální minimum ve velké diskrétní množině, kde může být mnoho lokálních minim. Úloha obchodního cestujícího Cílem je najít nejkratší cestu, která spojuje všechny
Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence
APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY
5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015
Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační
Selekce a extrakce příznaků 2
Selekce a extrakce příznaků. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Selekce a extrakce příznaků Proč?..............................................................................................................
7. Lineární vektorové prostory
7. Lineární vektorové prostory Tomáš Salač MÚ UK, MFF UK LS 2017/18 Tomáš Salač ( MÚ UK, MFF UK ) 7. Lineární vektorové prostory LS 2017/18 1 / 62 7.1 Definice a příklady Definice 7.1 Množina G s binární
Aplikovaná matematika I
Metoda nejmenších čtverců Aplikovaná matematika I Dana Říhová Mendelu Brno c Dana Říhová (Mendelu Brno) Metoda nejmenších čtverců 1 / 8 Obsah 1 Formulace problému 2 Princip metody nejmenších čtverců 3
LDA, logistická regrese
Vytěžování Dat Přednáška 9 Lineární klasifikátor, rozšíření báze, LDA, logistická regrese Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti
Základní spádové metody
Základní spádové metody Petr Tichý 23. října 2013 1 Metody typu line search Problém Idea metod min f(x), f : x R Rn R. n Dána počáteční aproximace x 0. Iterační proces (krok k): (a) zvol směr d k, (b)
Úvod do teorie her
Úvod do teorie her 2. Garanční řešení, hry s nulovým součtem a smíšené strategie Tomáš Kroupa http://staff.utia.cas.cz/kroupa/ 2017 ÚTIA AV ČR Program 1. Zavedeme řešení, které zabezpečuje minimální výplatu