Klasifikace a rozpoznávání. Extrakce příznaků
|
|
- Pavlína Musilová
- před 6 lety
- Počet zobrazení:
Transkript
1 Klasifikace a rozpoznávání Extrakce příznaků
2 Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám rozpoznávače Klasifikátory mají rády parametry které jsou: Gaussovského rozložení (většinou vícerozměrného) Nekorelované Nízkodimenzionální
3 Příklad parametrizace pro 2D vstupní vektory Mějme vzorky (příklady) 2D rozložení pro dvě třídy. 2. koeficient 1. koeficient
4 Příklad parametrizace pro 2D vstupní vektory Rozložení není příliš gaussovské. Provedeme třetí odmocninou obou koeficientů. 2. koeficient 1. koeficient
5 Příklad parametrizace pro 2D vstupní vektory Prostor se komprimuje nelineárně deformuje koeficient po kompresi 1. koeficient po kompresi
6 Příklad parametrizace pro 2D vstupní vektory... a rozložení pro každou třídu je nyní gaussovské. Koeficienty jsou ale korelované. Je vhodné prostor otočit tak aby se koeficienty dekorelovaly. 2. koeficient po kompresi 1. koeficient po kompresi
7 Příklad parametrizace pro 2D vstupní vektory Nyní jsou koeficienty dekorelovány. Svislá dimenze je navíc zbytečná, protože třídy se v ní zcela překrývají. 2. dimenze po rotaci 1. dimenze po rotaci
8 Gaussovské rozložení (jednorozměrné) Evaluation: N (x; μ, σ 2 ) = 1 σ 2π (x μ) 2 e 2σ ML odhad parametrů (Trénování): μ = 1 T P T t=1 x(t).25 p(x) σ 2 = 1 P T T t=1 (x(t) μ) x
9 Gaussian distribution (2 dimensions) 1 N (x; μ, Σ) = (2π)P Σ e 1 2 (x μ)t Σ 1 (x μ) p(x) ML odhad of parametrů (Trénování): x 2 μ = 1 T P T t=1 x(t) x 1 Σ = 1 P T T t=1 (x(t) μ)(x(t) μ)t
10 Plná a diagonální kovarianční matice p(x).1 p(x) x x x x x1 x1 1 2 μ = 1.5 Σ = μ = 1.5 Σ = x x2
11 Diagonální kovarianční matice 1 N (x; μ, Σ) = (2π)P Σ e 1 2 (x μ)t Σ 1 (x μ) Pokud je Σ diagonální matice s koeficienty v diagonále σ 2 i N (x; μ, Σ) = = = 1 q (2π) Q exp( 1 PX (x i μ i ) 2 P P 2 σ 2 i=1 σ2 i i=1 i PY 1 p exp( 1 (x i μ i ) 2 ) (2π)σ 2 i 2 i=1 PY N (x i ; μ i, σi 2 ) i=1 σ 2 i )
12 Diagonální kovarianční matice P (A, B) = P (A)P (B) Jevy A a B jsou statisticky nezávislé N (x; μ, Σ) = Q P i=1 N (x i; μ i, σ 2 i ) Koeficienty x i příznakového vektoru x jsou statisticky nezávislé. x 2 p(x 2 ) p(x) = p(x 1,x 2 ) p(x 1 ) x 1
13 Diagonální kovarianční matice Proč nás zajímá? Pomůže nám pochopit význam plné kovarianční matice v gaussovském rozložení Úspora parametrů při modelování dat Pokud jsou data korelována (viz červená třída na prvním obr.) Zvláště pro vysoce dimenzionální příznaky, modelování pomocí směsi gaussovských rozložení s diagonální Σ může být úspornější než použití jedné gaussovky s plnou Σ Můžeme se pokusit data natočit - dekorelovat
14 Skalární součin x = x1 x 2 bx = b 1 b 2 x 1 x 2 b = b 1 b 2 = b 1 x 1 + b 2 x 2 x. b bx b
15 Rotace vektoru Nechť b 1 a b 2 jsou ortonormální baze Vektory jsou na sebe kolmé Mají délku b 1 = b 2 = 1 Potom y = B x je otočený vektor x, kde b 1 a b 2 ukazují v původním prostoru směry nových os b 2 b 1 y 2. x =. x1 x 2 x y 1 B =. b1 b 2 = y 2 b11 b 12 b 21 b 22.. y 1. y
16 Projekce vektoru Nechť B je matice ortonormálních bází a B matice tvořena pouze několika řádky (bázemi) matice B. Potom y = B T B x je projekce vektoru x do bází B. b 2 x b 1.. y = b T 1 b 1 x
17 Vlastní čísla a vektory λ je vlastní číslo a e je odpovídající vlastni vektor čtvercové matice Σ, pokud platí: Σe = eλ PxP matice má (nanejvýš) P různých vlastních čísel. Nechť je Λ diagonální matice všech vlastních čísel a matice E obsahuje ve sloupcích odpovídající vlastní vektory. ΣE = EΛ Nás bude zajímat speciální případ kdy matice Σ je symetrická. Potom budou sloupce matice E tvořit ortonormální báze. Pro takovou matici potom platí: E T E = E -1 E = I, kde I je jednotková matice. Tedy platí následující rozklady matic: E T ΣE = Λ Σ = EΛE T
18 μ transformovaných dat Jak se změní odhady střední hodnoty a kovarianční matice pokud původní data transformujeme: y = Ax μ y = 1 T = A 1 T TX Ax(t) t=1 = Aμ x TX x(t) t=1
19 Σ transformovaných dat Σ y = 1 T = A 1 T TX (Ax(t) μ y )(Ax(t) μ y ) T t=1 TX (x(t) μ x )(x(t) μ x ) T A T t=1 = AΣ x A T Co se stane když jako A použijeme transponovanou matici vlastních vektoru kovarianční matice Σ x? (Proč transponovanou? Protože vlastní vektory máme ve sloupcích a ne v řádcích). Jaký význam mají vlastní čísla?
20 Analýza hlavních komponent (Principal Component Analysis - PCA) Data distribution 2 nd PCA dimension 1 st PCA dimension original space coordinates
21 Analýza hlavních komponent Umožňuje: Dekorelaci vlastní vektory kovarianční matice definuji souřadný systém ve kterých jsou data dekorelována mají diagonální kovarianční matici Redukci dimenzí promítnutí dat do pouze několika vlastních vektorů odpovídajících největším vlastním číslům (směry s nevětší variancí) umožní optimální rekonstrukci dat s nejmenší kvadratickou chybou (mean square error - MSE) Redukce dimenzí provádíme pokud věříme, že v některých směrech není užitečná informace ale pouze (gaussovský) šum s nízkou variabilitou.
22 Interpretace Σ v gaussovském rozložení N (x; μ, Σ) = = = 1 p (2π) P Σ e 1 2 (x μ)t Σ 1 (x μ) 1 p (2π) P Σ e 1 2 (x μ)t EΛ 1 E T (x μ) 1 p (2π) P Λ e 1 2 (ET x E T μ) T Λ 1 (E T x E T μ)
23 PCA - Příklad Obrázky 1x1 pixelů 1 dimensionální vektory Střední hodnota, vlastní čísla a vlastní vektory μ λ 1 = λ 2 = λ 3 = λ 3 = Střední hodnota, vlastní čísla a vlastní vektory Originál M = 1 M=1 M=5 M=25
24 PCA - Příklad Jakou dimenzi si PCA vybere na tomto příkladě? Bude to výhodné pro klasifikaci tříd?
25 Lineární diskriminační analýza Opět se pokusíme promítnout data pouze do určitého směru: Tentokrát ale budeme chtít aby v tomto směru byly separovány třídy. Intuitivně by nás mohlo napadnout vybrat směr ve kterém jsou nejlépe odděleny průměty středních hodnot tříd m 1 a m 2. Hledáme tedy w, které maximalizuje: m 1 m 2
26 Lineární diskriminační analýza Lze však najít i lepší směr: Snažíme se data promítnout do takového směru, kde Maximalizujeme vzdálenost mezi středními hodnotami tříd Minimalizujeme průměrnou varianci tříd Maximalizujeme tedy
27 Lineární diskriminační analýza 1 st LDA dimension Class 1 Class 2
28 Lineární diskriminační analýza Σ ac Σ 1 LDA dimenze dány vlastními vektory matice wc Σ ac kovarianční matice spočítaná se středních hodnot tříd Σ wc průměrná kovarianční matice tříd Lze zobecnit pro více tříd vlastní vektory s největšími vlastními čísly odpovídají směrům ve kterých jsou třídy nelépe separovány Pro J tříd bude pouze J-1 vlastních čísel nenulových Pokud mají všechny třídy gaussovské rozložení se stejnou kovarianční maticí, LDA transformace transformuje prostor tak, že mohou byt třídy optimálně modelovány gaussovským rozložení s diagonální kovarianční maticí
29 LDA a lineární klasifikátor Dvě třídy s gaussovským rozložením se stejnou kovarianční matici jsou opravdu optimálně oddělitelné lineárním klasifikátorem (přímkou, rovinou, hyper-rovinou)
30 Extrakce příznaku pro řeč -MFCC (Mel frequency cepstral coefficients) Nejprve řečový signál rozdělíme do asi 2ms překrývajících se segmentů
31 1 a) Segment of speech signal for vowel iy.5 b) Speech segment after preemphasis and windowing time [ms] c) Fourier spectrum of speech segment time [ms] d) Filter bank energies smoothed spectrum frequency [Hz] e) Log of filter bank energies band number f) Mel frefuency cepstral coefficients band number mel quefrency
32 Původní signál Logaritmický vystup z banky filtru je třeba již jen dekorelovat
33 3 a) Eigen values.5 b) 1st Eigen vector band number c) 2nd Eigen vector band number d) 3rd Eigen vector band number e) 4th Eigen vector band number f) 5th Eigen vector band number band number
34 Singular Value Decomposition - SVD A je jakákoli mxn matice U je mxn matice kde sloupce jsou ortonormální báze V je nxn matice kde sloupce jsou ortonormální báze D je nxn je diagonální matice Předpokládejme, že matice A je matice s příznakovými vektory v řádcích s již odečtenou střední hodnotou Σ = A T A Potom z následujících vztahů vyplývá, ze: V jsou vlastní vektory Σ Diagonála D obsahuje odmocniny z vlastních čísel Σ (variance ve směrech vlastních vektorů)
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Zpracování digitalizovaného obrazu (ZDO) - Popisy III
Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování
PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti
PROSTORY SE SKALÁRNÍM SOUČINEM Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx, y) = λ(x,
11 Analýza hlavních komponet
11 Analýza hlavních komponet Tato úloha provádí transformaci měřených dat na menší počet tzv. fiktivních dat tak, aby většina informace obsažená v původních datech zůstala zachována. Jedná se tedy o úlohu
Přednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s
Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných
SVD rozklad a pseudoinverse
SVD rozklad a pseudoinverse Odpřednesenou látku naleznete v kapitole 12 skript Abstraktní a konkrétní lineární algebra. Jiří Velebil: Lineární algebra 19.12.2016: SVD rozklad a pseudoinverse 1/21 Cíle
Zdrojem většiny příkladů je sbírka úloh 1. cvičení ( ) 2. cvičení ( )
Příklady řešené na cvičení LA II - LS 1/13 Zdrojem většiny příkladů je sbírka úloh http://kam.mff.cuni.cz/~sbirka/ 1. cvičení (..13) 1. Rozhodněte, které z následujících operací jsou skalárním součinem
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka
AVDAT Mnohorozměrné metody metody redukce dimenze
AVDAT Mnohorozměrné metody metody redukce dimenze Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování vlastní čísla a vlastní vektory A je čtvercová matice řádu n. Pak
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky
Vlastní číslo, vektor
[1] Vlastní číslo, vektor motivace: směr přímky, kterou lin. transformace nezmění invariantní podprostory charakteristický polynom báze, vzhledem ke které je matice transformace nejjednodušší podobnost
PRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOS A SAISIKA Regresní analýza - motivace Základní úlohou regresní analýzy je nalezení vhodného modelu studované závislosti. Je nutné věnovat velkou pozornost tomu aby byla modelována REÁLNÁ
Úlohy k přednášce NMAG 101 a 120: Lineární algebra a geometrie 1 a 2,
Úlohy k přednášce NMAG a : Lineární algebra a geometrie a Verze ze dne. května Toto je seznam přímočarých příkladů k přednášce. Úlohy z tohoto seznamu je nezbytně nutné umět řešit. Podobné typy úloh se
Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů
Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci
n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)
5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =
EUKLIDOVSKÉ PROSTORY
EUKLIDOVSKÉ PROSTORY Necht L je lineární vektorový prostor nad tělesem reálných čísel R. Zobrazení (.,.) : L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx,
Vlastní čísla a vlastní vektory
5 Vlastní čísla a vlastní vektor Poznámka: Je-li A : V V lineární zobrazení z prostoru V do prostoru V někd se takové zobrazení nazývá lineárním operátorem, pak je přirozeným požadavkem najít takovou bázi
Analýza hlavních komponent
Analýza hlavních komponent Ekonometrie Jiří Neubauer Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz J. Neubauer, J. Michálek (Katedra ekonometrie UO) Analýza
AVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
Necht L je lineární prostor nad R. Operaci : L L R nazýváme
Skalární součin axiomatická definice odvození velikosti vektorů a úhlu mezi vektory geometrická interpretace ortogonalita vlastnosti ortonormálních bázi [1] Definice skalárního součinu Necht L je lineární
Náhodné vektory a matice
Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane
AVDAT Náhodný vektor, mnohorozměrné rozdělení
AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární
Numerické metody a programování. Lekce 4
Numerické metody a programování Lekce 4 Linarní algebra soustava lineárních algebraických rovnic a 11 a 12 x 2 a 1, N x N = b 1 a 21 a 22 x 2 a 2, N x N = b 2 a M,1 a M,2 x 2 a M,N x N = b M zkráceně A
Napěťový vektor 3d. Díky Wikipedia za obrázek. n n n
Míry napětí Napěťový vektor 3d n n2 2 n,. n n n Zatížené těleso rozdělíme myšleným řezem na dvě části. Na malou plošku v okolí materiálového bodu P působí napěťový vektor (n) (n, x, t), který je spojitou
Matematika I 12a Euklidovská geometrie
Matematika I 12a Euklidovská geometrie Jan Slovák Masarykova univerzita Fakulta informatiky 3. 12. 2012 Obsah přednášky 1 Euklidovské prostory 2 Odchylky podprostorů 3 Standardní úlohy 4 Objemy Plán přednášky
Implementace Bayesova kasifikátoru
Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz III. PŘÍZNAKOVÁ KLASIFIKACE - ÚVOD PŘÍZNAKOVÝ POPIS Příznakový obraz x zpracovávaných
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
Statistické modely tvaru a vzhledu
Kapitola 1 Statistické modely tvaru a vzhledu V této kapitole nastíním problematiku statistických modelů tvaru, jejich využití a metod potřebných pro jejich výpočet a použití. Existují dvě hlavní metody;
Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika)
Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika) Kartézská soustava souřadnic je dána počátkem O a uspořádanou trojicí bodů E x,
Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.
Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační
Detekce neznámých typů mutantů na základě odlišnosti kinetiky fluorescence
Detekce neznámých typů mutantů na základě odlišnosti kinetiky fluorescence Jan Vaněk 1, Radek Tesař 1, Jan Urban 1, Karel Matouš 2 1 Katedra kybernetiky, Fakulta aplikovaných věd, Západočeská univerzita
Matice. Předpokládejme, že A = (a ij ) je matice typu m n: diagonálou jsou rovny nule.
Matice Definice. Maticí typu m n nazýváme obdélníkové pole, tvořené z m n reálných čísel (tzv. prvků matice), zapsaných v m řádcích a n sloupcích. Značíme např. A = (a ij ), kde i = 1,..., m, j = 1,...,
AVDAT Geometrie metody nejmenších čtverců
AVDAT Geometrie metody nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model klasický lineární regresní model odhad parametrů MNČ y = Xβ + ε, ε
Základy matematiky pro FEK
Základy matematiky pro FEK 2. přednáška Blanka Šedivá KMA zimní semestr 2016/2017 Blanka Šedivá (KMA) Základy matematiky pro FEK zimní semestr 2016/2017 1 / 20 Co nás dneska čeká... Závislé a nezávislé
Úvod do vícerozměrných metod. Statistické metody a zpracování dat. Faktorová a komponentní analýza (Úvod do vícerozměrných metod)
Úvod do vícerozměrných metod Statistické metody a zpracování dat Faktorová a komponentní analýza (Úvod do vícerozměrných metod) Petr Dobrovolný O řadě jevů či procesů máme k dispozici ne jeden statistický
Kybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
Statistické metody a zpracování dat. IX Faktorová a komponentní analýza (Úvod do vícerozměrných metod) Petr Dobrovolný
Statistické metody a zpracování dat IX Faktorová a komponentní analýza (Úvod do vícerozměrných metod) Petr Dobrovolný Úvod do vícerozměrných metod O řadě jevů či procesů máme k dispozici ne jeden statistický
Diskriminační analýza hodnocení rozdílů mezi 2 nebo více skupinami objektů charakterizovanými více znaky
Diskriminační analýza hodnocení rozdílů mezi 2 nebo více skupinami objektů charakterizovanými více znaky Interpretují rozdíly mezi předem stanovenými třídami Cílem je klasifikace objektů do skupin Hledáme
Rosenblattův perceptron
Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného
SRE 03 - Statistické rozpoznávání
SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29 Opakování
Lineární algebra : Metrická geometrie
Lineární algebra : Metrická geometrie (16. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 6. května 2014, 10:42 1 2 Úvod Zatím jsme se lineární geometrii věnovali v kapitole o lineárních
AVDAT Klasický lineární model, metoda nejmenších
AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i
1 0 0 u 22 u 23 l 31. l u11
LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23
[1] Motivace. p = {t u ; t R}, A(p) = {A(t u ); t R} = {t A( u ); t R}
Vlastní číslo, vektor motivace: směr přímky, kterou lin. transformace nezmění invariantní podprostory charakteristický polynom báze, vzhledem ke které je matice transformace nejjednodušší podobnost s diagonální
Odhad stavu matematického modelu křižovatek
Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita
Úlohy nejmenších čtverců
Úlohy nejmenších čtverců Petr Tichý 7. listopadu 2012 1 Problémy nejmenších čtverců Ax b Řešení Ax = b nemusí existovat, a pokud existuje, nemusí být jednoznačné. Často má smysl hledat x tak, že Ax b.
Singulární rozklad. Petr Tichý. 31. října 2013
Singulární rozklad Petr Tichý 31. října 2013 1 Outline 1 Úvod a motivace 2 Zavedení singulárního rozkladu a jeho vlastnosti 3 Výpočet a náklady na výpočet singulárního rozkladu 4 Moor-Penroseova pseudoinverze
15 Maticový a vektorový počet II
M. Rokyta, MFF UK: Aplikovaná matematika III kap. 15: Maticový a vektorový počet II 1 15 Maticový a vektorový počet II 15.1 Úvod Opakování z 1. ročníku (z kapitoly 8) Označení. Množinu všech reálných resp.
Aplikovaná matematika I
Metoda nejmenších čtverců Aplikovaná matematika I Dana Říhová Mendelu Brno c Dana Říhová (Mendelu Brno) Metoda nejmenších čtverců 1 / 8 Obsah 1 Formulace problému 2 Princip metody nejmenších čtverců 3
Symetrické a kvadratické formy
Symetrické a kvadratické formy Aplikace: klasifikace kvadrik(r 2 ) a kvadratických ploch(r 3 ), optimalizace(mpi) BI-LIN (Symetrické a kvadratické formy) 1 / 20 V celé přednášce uvažujeme číselné těleso
Linearní algebra příklady
Linearní algebra příklady 6. listopadu 008 9:56 Značení: E jednotková matice, E ij matice mající v pozici (i, j jedničku a jinak nuly. [...]... lineární obal dané soustavy vektorů. Popište pomocí maticového
Numerické metody a programování
Projekt: Inovace výuky optiky se zaměřením na získání experimentálních dovedností Registrační číslo: CZ.1.7/2.2./28.157 Numerické metody a programování Lekce 4 Tento projekt je spolufinancován Evropským
Vícerozměrné statistické metody
Vícerozměrné statistické metody Ordinační analýzy principy redukce dimenzionality Jiří Jarkovský, Simona Littnerová FSTA: Pokročilé statistické metody Ordinační analýza a její cíle Cíle ordinační analýzy
Ing. Václav Eksler Ústav telekomunikací FEKT VUT v Brně
1 z 10 5.10.2010 9:16 Elektrorevue 2005/29-17.5.2005 Obsah Ing. Václav Eksler eksler@feec.vutbr.cz Ústav telekomunikací FEKT VUT v Brně Problematikou separace zdrojů naslepo nebo také separace signálů
Statistická analýza dat
Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte
NALG 001 Lineární algebra a geometrie 1, zimní semestr MFF UK Doba řešení: 3 hodiny
NALG 001 Lineární algebra a geometrie 1, zimní semestr MFF UK Závěrečná zkouška verze cvičná 9.1.2013 Doba řešení: 3 hodiny Přednášející: L. Barto, J. Tůma Křestní jméno: Příjmení: Instrukce Neotvírejte
Lineární zobrazení. 1. A(x y) = A(x) A(y) (vlastnost aditivity) 2. A(α x) = α A(x) (vlastnost homogenity)
4 Lineární zobrazení Definice: Nechť V a W jsou vektorové prostory Zobrazení A : V W (zobrazení z V do W nazýváme lineárním zobrazením, pokud pro všechna x V, y V a α R platí 1 A(x y = A(x A(y (vlastnost
DEFINICE Z LINEÁRNÍ ALGEBRY
DEFINICE Z LINEÁRNÍ ALGEBRY Skripta Matematické metody pro statistiku a operační výzkum (Nešetřilová, H., Šařecová, P., 2009). 1. definice Vektorovým prostorem rozumíme neprázdnou množinu prvků V, na které
Regresní analýza 1. Regresní analýza
Regresní analýza 1 1 Regresní funkce Regresní analýza Důležitou statistickou úlohou je hledání a zkoumání závislostí proměnných, jejichž hodnoty získáme při realizaci experimentů Vzhledem k jejich náhodnému
Definice : Definice :
KAPITOLA 7: Spektrální analýza operátorů a matic [PAN16-K7-1] Definice : Necht H je komplexní Hilbertův prostor. Řekneme, že operátor T B(H) je normální, jestliže T T = T T. Operátor T B(H) je normální
Normální rozložení a odvozená rozložení
I Normální rozložení a odvozená rozložení I.I Normální rozložení Data, se kterými pracujeme, pocházejí z různých rozložení. Mohou být vychýlena (doleva popř. doprava, nebo v nich není na první pohled vidět
9.1 Definice a rovnice kuželoseček
9. Kuželosečky a kvadriky 9.1 Definice a rovnice kuželoseček Kuželosečka - řez na kruhovém kuželi, množina bodů splňujících kvadratickou rovnici ve dvou proměnných. Elipsa parametricky: X(t) = (a cos t,
Eva Fišerová a Karel Hron. Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci.
Ortogonální regrese pro 3-složkové kompoziční data využitím lineárních modelů Eva Fišerová a Karel Hron Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci
maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést
Úlohy k zamyšlení 1. Zdůvodněte, proč třetí řádek Hornerova schématu pro vyhodnocení polynomu p v bodě c obsahuje koeficienty polynomu r, pro který platí p(x) = (x c) r(x) + p(c). 2. Dokažte, že pokud
Transformace obrazu Josef Pelikán KSVI MFF UK Praha
Transformace obrazu 99725 Josef Pelikán KSVI MFF UK Praha email: Josef.Pelikan@mff.cuni.cz WWW: http://cgg.ms.mff.cuni.cz/~pepca/ Transformace 2D obrazu dekorelace dat potlačení závislosti jednotlivých
2 Vektorové normy. Základy numerické matematiky - NMNM201. Definice 1 (Norma). Norma je funkcionál splňující pro libovolné vektory x a y a pro
Cvičení 1 Základy numerické matematiky - NMNM201 1 Základní pojmy opakování Definice 1 (Norma). Norma je funkcionál splňující pro libovolné vektory x a y a pro libovolný skalár α C následující podmínky:
z = a bi. z + v = (a + bi) + (c + di) = (a + c) + (b + d)i. z v = (a + bi) (c + di) = (a c) + (b d)i. z v = (a + bi) (c + di) = (ac bd) + (bc + ad)i.
KOMLEXNÍ ČÍSLA C = {a + bi; a, b R}, kde i 2 = 1 Číslo komplexně sdružené k z = a + bi je číslo z = a bi. Operace s komplexními čísly: z = a + bi, kde a, b R v = c + di, kde c, d R Sčítání Odčítání Násobení
Uspořádanou n-tici reálných čísel nazveme aritmetický vektor (vektor), ā = (a 1, a 2,..., a n ). Čísla a 1, a 2,..., a n se nazývají složky vektoru
1 1. Lineární algebra 1.1. Lineární závislost a nezávislost vektorů. Hodnost matice Aritmetické vektory Uspořádanou n-tici reálných čísel nazveme aritmetický vektor (vektor), ā = (a 1, a 2,..., a n ).
Projektivní geometrie. Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni
Metody Počítačového Vidění (MPV) - 3D počítačové vidění Projektivní geometrie Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Metody Počítačového Vidění
0.1 Úvod do lineární algebry
Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Vektory Definice 011 Vektorem aritmetického prostorur n budeme rozumět uspořádanou n-tici reálných čísel x 1, x 2,, x n Definice 012 Definice sčítání
Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace
Vektory a matice Aplikovaná matematika I Dana Říhová Mendelu Brno Obsah 1 Vektory Základní pojmy a operace Lineární závislost a nezávislost vektorů 2 Matice Základní pojmy, druhy matic Operace s maticemi
A0B01LAA Lineární algebra a aplikace (příklady na cvičení- řešení)
A0B0LAA Lineární algebra a aplikace příklady na cvičení- řešení Martin Hadrava martin@hadrava.eu. ledna 0.týdenod9.9. Řešení soustav lineárních rovnic Gaussovou eliminační metodou diskuse počtu řešení..
VEKTORY. Obrázek 1: Jediný vektor. Souřadnice vektoru jsou jeho průměty do souřadných os x a y u dvojrozměrného vektoru, AB = B A
VEKTORY Vektorem se rozumí množina všech orientovaných úseček, které mají stejnou velikost, směr a orientaci, což vidíme na obr. 1. Jedna konkrétní orientovaná úsečka se nazývá umístění vektoru na obr.
MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]
MATICE Matice typu m/n nad tělesem T je soubor m n prvků z tělesa T uspořádaných do m řádků a n sloupců: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] a m1 a m2 a mn Prvek a i,j je prvek matice A na místě
Základy maticového počtu Matice, determinant, definitnost
Základy maticového počtu Matice, determinant, definitnost Petr Liška Masarykova univerzita 18.9.2014 Matice a vektory Matice Matice typu m n je pravoúhlé (nebo obdélníkové) schéma, které má m řádků a n
vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých mocnin). Rozhodněte o definitnosti kvadratické formy κ(x).
Řešené příklady z lineární algebry - část 6 Typové příklady s řešením Příklad 6.: Kvadratickou formu κ(x) = x x 6x 6x x + 8x x 8x x vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých
Matematika pro geometrickou morfometrii
Matematika pro geometrickou morfometrii Václav Krajíček Vaclav.Krajicek@mff.cuni.cz Department of Software and Computer Science Education Faculty of Mathematics and Physics Charles University Přednáška
aneb jiný úhel pohledu na prvák
Účelná matematika aneb jiný úhel pohledu na prvák Jan Hejtmánek FEL, ČVUT v Praze 24. června 2015 Jan Hejtmánek (FEL, ČVUT v Praze) Technokrati 2015 24. června 2015 1 / 18 Outline 1 Motivace 2 Proč tolik
1 Linearní prostory nad komplexními čísly
1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)
1 Projekce a projektory
Cvičení 3 - zadání a řešení úloh Základy numerické matematiky - NMNM20 Verze z 5. října 208 Projekce a projektory Opakování ortogonální projekce Definice (Ortogonální projekce). Uvažujme V vektorový prostor
1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15
Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních
Úvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT
ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT ZS 2013 ÚTIA - ZOI zoi.utia.cas.cz Kontakty Ústav teorie informace a automatizace AV ČR, v.v.i. http://www.utia.cas.cz Zpracování obrazové informace http://zoi.utia.cas.cz
Požadavky ke zkoušce
Požadavky ke zkoušce Zkouška z předmětu MATEMATIKA 2 má dvě části Písemná část: Písemná část se ještě dále rozděluje na praktickou část písemku a teoretickou část test. Písemka trvá 90 minut a je v ní
5. Singulární rozklad
5. Singulární rozklad Petr Tichý 31. října 2012 1 Singulární rozklad matice Jeden z nejdůležitějších teoretických i praktických nástrojů maticových výpočtů. Umožňuje určit hodnost či normu matice, ortogonální
19. Druhý rozklad lineární transformace
Matematický ústav Slezské univerzity v Opavě Učební texty k přednášce ALGEBRA II, letní semestr 2000/2001 Michal Marvan Úmluva. Všude P = C. Vpřednášce o vlastních vektorech jsme se seznámili s diagonalizovatelnými
Všechno, co jste kdy chtěli vědět o maticích, ale báli jste se zeptat
Všechno, co jste kdy chtěli vědět o maticích, ale báli jste se zeptat Čtvercová matice n n, např. může reprezentovat: A = A A 2 A 3 A 2 A 22 A 23 A 3 A 32 A 33 matici koeficientů soustavy n lineárních
11 Vzdálenost podprostorů
11 Vzdálenost podprostorů 11.1 Vzdálenost bodů Eukleidovský bodový prostor E n = afinní bodový prostor, na jehož zaměření je definován skalární součin. (Pech:AGLÚ/str.126) Definováním skalárního součinu
Program SMP pro kombinované studium
Zadání příkladů k procvičení na seminář Program SMP pro kombinované studium Nejdůležitější typy příkladů - minimum znalostí před zkouškovou písemkou 1) Matice 1. Pro matice 1 0 2 1 0 3 B = 7 3 4 4 2 0
Drsná matematika I 13. přednáška Kvadriky a projektivní rozšíření
Drsná matematika I 13. přednáška Kvadriky a projektivní rozšíření Jan Slovák Masarykova univerzita Fakulta informatiky 12. 12. 2007 Obsah přednášky 1 Literatura 2 Kvadratické formy a kvadriky 3 Projektivní
AVDAT Vektory a matice
AVDAT Vektory a matice Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Vektory x = x 1 x 2. x p y = y 1 y 2. y p Řádkový vektor dostaneme transpozicí sloupcového vektoru x
Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy
Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Autor práce : RNDr. Ivo Beroun,CSc. Vedoucí práce: prof. RNDr. Milan Meloun, DrSc. PROFILOVÁNÍ Profilování = klasifikace a rozlišování
Základy navrhování průmyslových experimentů DOE
Základy navrhování průmyslových experimentů DOE cílová hodnota V. Vícefaktoriální experimenty Gejza Dohnal střední hodnota cílová hodnota Vícefaktoriální návrhy experimentů počet faktorů: počet úrovní:
Statistická analýza jednorozměrných dat
Statistická analýza jednorozměrných dat Prof. RNDr. Milan Meloun, DrSc. Univerzita Pardubice, Pardubice 31.ledna 2011 Tato prezentace je spolufinancována Evropským sociálním fondem a státním rozpočtem
3. Metody analýzy časových řad v klimatologii
3. Metody analýzy časových řad v klimatologii 3.1 Periodicita a cykličnost Klima je vyjádřeno různými prvky (např. teplota vzduchu, srážky, indexy), kolísajícími v prostoru a čase: {a, b, c, } = f (x,
= x (1.1) Komentář [j1]: Odstaveček na webu Následující text je... prosím nahradit za tyto tři odstavce. Děkuji.
Ordinační analýzy V této kapitole se seznámíme s jednotlivými metodami extrakce proměnných, jejichž cílem je transformace původních proměnných do menšího počtu nových proměnných, jak již bylo uvedeno v
ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT
ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT ZS ÚTIA - ZOI zoi.utia.cas.cz Kontakty Ústav teorie informace a automatizace AV ČR, v.v.i. http://www.utia.cas.cz Zpracování obrazové informace http://zoi.utia.cas.cz
Univerzita Pardubice Chemicko-technologická fakulta Katedra analytické chemie
Univerzita Pardubice Chemicko-technologická fakulta Katedra analytické chemie 12. licenční studium PYTHAGORAS Statistické zpracování dat 3.1 Matematické principy vícerozměrných metod statistické analýzy