Biologické a akustické signály



Podobné dokumenty
Kapitola 1. Tenzorový součin matic

Jazyk matematiky Matematická logika Množinové operace Zobrazení Rozšířená číslená osa

Biologické a akustické signály. March 8, 2011

Vlastnosti IIR filtrů:

Skalár- veličina určená jedním číselným údajem čas, hmotnost (porovnej životní úroveň, hospodaření firmy, naše poloha podle GPS )

Matematika I Lineární závislost a nezávislost

Součin matice A a čísla α definujeme jako matici αa = (d ij ) typu m n, kde d ij = αa ij pro libovolné indexy i, j.

Matice se v některých publikacích uvádějí v hranatých závorkách, v jiných v kulatých závorkách. My se budeme držet zápisu s kulatými závorkami.

Vybrané problémy lineární algebry v programu Maple

III. Diferenciál funkce a tečná rovina 8. Diferenciál funkce. Přírůstek funkce. a = (x 0, y 0 ), h = (h 1, h 2 ).

Vektory a matice. Matice a operace s nimi. Hodnost matice. Determinanty. . p.1/12

A0M15EZS Elektrické zdroje a soustavy ZS 2011/2012 cvičení 1. Jednotková matice na hlavní diagonále jsou jedničky, všude jinde nuly

Fakt. Každou soustavu n lineárních ODR řádů n i lze eliminací převést ekvivalentně na jednu lineární ODR

5. Maticová algebra, typy matic, inverzní matice, determinant.

1. Alternativní rozdělení A(p) (Bernoulli) je diskrétní rozdělení, kdy. p(0) = P (X = 0) = 1 p, p(1) = P (X = 1) = p, 0 < p < 1.

Skalární součin je nástroj, jak měřit velikost vektorů a úhly mezi vektory v reálných a komplexních vektorových prostorech.

Úvod do optimalizace

Regresní a korelační analýza

a m1 a m2 a mn zobrazení. Operaci násobení u matic budeme definovat jiným způsobem.

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Operace s maticemi Sčítání matic: u matic stejného typu sečteme prvky na stejných pozicích: A+B=(a ij ) m n +(b ij ) m n =(a ij +b ij ) m n.



9. Úvod do teorie PDR

Elektrotechnická fakulta

Přepočet provozních stavů sítě daných: Výpočet ztrát a kapacitních proudů v síti: Výpočet zkratových poměrů v síti:

x y +30x, 12x+30 18y 18y 18x+54

Lineární algebra II. Adam Liška. 9. února Zápisky z přednášek Jiřího Fialy na MFF UK, letní semestr, ak. rok 2007/2008

Matice. Přednáška MATEMATIKA č. 2. Jiří Neubauer. Katedra ekonometrie FEM UO Brno kancelář 69a, tel

Funkce zadané implicitně

Hledání extrémů funkcí

Několik poznámek na téma lineární algebry pro studenty fyzikální chemie

Lineární algebra. Soustavy lineárních rovnic

Soustavy lineárních rovnic

Matematika pro studenty ekonomie

1 Lineární stochastický systém a jeho vlastnosti. 2 Kovarianční funkce, výkonová spektrální hustota, spektrální faktorizace,

Některé zákony rozdělení pravděpodobnosti. 1. Binomické rozdělení

Euklidovský prostor Stručnější verze

Vedení tepla v MKP. Konstantní tepelné toky. Analogické úlohám statiky v mechanice kontinua

Soustavy lineárních rovnic

KATEDRA INFORMATIKY UNIVERZITA PALACKÉHO LINEÁRNÍ ALGEBRA 1 OLGA KRUPKOVÁ VÝVOJ TOHOTO UČEBNÍHO TEXTU JE SPOLUFINANCOVÁN

Regulární matice. Věnujeme dále pozornost zejména čtvercovým maticím.

Exponenciála matice a její užití. fundamentálních matic. Užití mocninných řad pro rovnice druhého řádu

TEORIE MATIC. Tomáš Vondra

Učební texty k státní bakalářské zkoušce Matematika Matice. študenti MFF 15. augusta 2008

2. RBF neuronové sítě

SOUSTAVY LINEÁRNÍCH ROVNIC

Základní radiometrické veličiny

2.6. Vlastní čísla a vlastní vektory matice

Lineární algebra a analytická geometrie sbírka úloh a ř ešených př íkladů

1. Pravděpodobnost a statistika (MP leden 2010)

3. Matice a determinanty

Metody operačního výzkumu cvičení

FAKULTA STROJNÍHO INŽENÝRSTVÍ ÚSTAV MATEMATIKY

Problémy konstrukce a implementace modelů strukturální analýzy

Kmitání struny. Jelikožpředpokládáme,ževýchylkystrunyjsoumalé,budeplatitcosϕ 1,2 1,takže můžeme psát. F 2 F 1 = F 2 u x 2 x.

10. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo

6. T e s t o v á n í h y p o t é z

FAKULTA ELEKTROTECHNIKY A KOMUNIKAČNÍCH TECHNOLOGIÍ. Matematika 3. RNDr. Břetislav Fajmon, PhD. Autoři textu:

Determinant. Definice determinantu. Permutace. Permutace, vlastnosti. Definice: Necht A = (a i,j ) R n,n je čtvercová matice.

AVDAT Vektory a matice

2. Je dáno jevové pole (Ω;A) a na něm nezáporná normovaná funkce. Definujte distrubuční funkci náhodného vektoru.

V praxi pracujeme s daty nominálními (nabývají pouze dvou hodnot), kategoriálními (nabývají více

Maticový a tenzorový počet

1 Funkce dvou a tří proměnných

LWS při heteroskedasticitě



zejména Dijkstrův algoritmus pro hledání minimální cesty a hladový algoritmus pro hledání minimální kostry.

MATEMATIKA IV - PARCIÁLNÍ DIFERENCIÁLNÍ ROVNICE - ZÁPISKY Z. Obsah. 1. Parciální diferenciální rovnice obecně. 2. Kvaazilineární rovnice prvního řádu

AVDAT Náhodný vektor, mnohorozměrné rozdělení

DEFINICE Z LINEÁRNÍ ALGEBRY

11 Soustavy rovnic a nerovnic, Determinanty a Matice

Kristýna Kuncová. Matematika B2

DYNAMICKÉ PROGRAMOVÁNÍ A PROBLÉM BATOHU

Lenka Zalabová. Ústav matematiky a biomatematiky, Přírodovědecká fakulta, Jihočeská univerzita. zima 2012

Numerické řešení obyčejných diferenciálních rovnic

AVDAT Klasický lineární model, metoda nejmenších

Práce, energie a další mechanické veličiny

NÁVRH LQG ŘÍZENÍ PRO FYZIKÁLNÍ MODEL KULIČKY NA TYČI

2. Matice, soustavy lineárních rovnic

Poznámky z matematiky

Masarykova univerzita. Základy konvexní analýzy a optimalizace v R n.

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1

1 Vektorové prostory.

VYSOKÁ ŠKOLA EKONOMICKÁ V PRAZE. Optimalizace trasy při revizích elektrospotřebičů

EKONOMICKO-MATEMATICKÉ METODY

Matematika pro chemické inženýry. Drahoslava Janovská

21. Úvod do teorie parciálních diferenciálních rovnic

2.8 Zobecnění vztahů mezi zatížením a vnitřními silami prutu (rovinný prut zatížený v rovině) df x =f x.ds df z =f z.ds. M+dM x. ds=r.dϕ.

Parametrická rovnice přímky v rovině

Kapitola 11. Vzdálenost v grafech Matice sousednosti a počty sledů

Funkce více proměnných. April 29, 2016

0.1 Úvod do lineární algebry

Tento text vzniká jako podklad pro seminář Úvod do stochastické analýzy,

Přijímací zkoušky z matematiky pro akademický rok 2018/19 NMgr. studium Učitelství matematiky ZŠ, SŠ

2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2

0. Lineární rekurence Martin Mareš,

Y36BEZ Bezpečnost přenosu a zpracování dat. Úvod. Róbert Lórencz. lorencz@fel.cvut.cz

Balanční vlastnosti pevného bodu substituce

Transkript:

TECHNICKÁ UNIVERZITA V LIBERCI Fakulta mechatroniky, informatiky a mezioborových studií Přednáška 4 Zbyněk Koldovský Projekt ESF CZ.1.07/2.2.00/28.0050 a inovace výuky technických předmětů.

a inovace výuky technických předmětů 2 / 19 Část I Optimální filtry

Vstup, výstup, chyba x[n] je vstupní signál a inovace výuky technických předmětů 3 / 19

Vstup, výstup, chyba a inovace výuky technických předmětů 3 / 19 x[n] je vstupní signál Signál zpracováváme FIR filtrem w délky L, výstup je y[n] = w[0]x[n] + w[1]x[n 1] + + w[l 1]x[n L] L 1 = w[k]x[n k]. k=0

Vstup, výstup, chyba a inovace výuky technických předmětů 3 / 19 x[n] je vstupní signál Signál zpracováváme FIR filtrem w délky L, výstup je y[n] = w[0]x[n] + w[1]x[n 1] + + w[l 1]x[n L] L 1 = w[k]x[n k]. k=0 Vektorový zápis kde x n = x[n] x[n 1]. x[n L] y[n] = w T x n w = w[0] w[1]. w[l],

a inovace výuky technických předmětů 4 / 19 Vstup, výstup, chyba Necht d[n] značí ideální výstup

a inovace výuky technických předmětů 4 / 19 Vstup, výstup, chyba Necht d[n] značí ideální výstup Chyba výstupu je e[n] = d[n] y[n] = d[n] w T x n.

a inovace výuky technických předmětů 4 / 19 Vstup, výstup, chyba Necht d[n] značí ideální výstup Chyba výstupu je e[n] = d[n] y[n] = d[n] w T x n. Filtr w můžeme hledat optimalizací nějakého kritéria, např. kvadratického J n (w) = e[n] 2.

a inovace výuky technických předmětů 5 / 19 Gradient J n (w) Gradient J n (w), tj. vektor parciálních derivací podle jednotlivých složek w, lze zapsat vektorově J n (w) = 2x n d(n) + 2x n x T n w.

a inovace výuky technických předmětů 5 / 19 Gradient J n (w) Gradient J n (w), tj. vektor parciálních derivací podle jednotlivých složek w, lze zapsat vektorově Zavedeme označení J n (w) = 2x n d(n) + 2x n x T n w. R n = x n x T n p n = x n d[n],

a inovace výuky technických předmětů 5 / 19 Gradient J n (w) Gradient J n (w), tj. vektor parciálních derivací podle jednotlivých složek w, lze zapsat vektorově Zavedeme označení J n (w) = 2x n d(n) + 2x n x T n w. R n = x n x T n p n = x n d[n], Gradient můžeme zapsat jako J n (w) = 2p n + 2R n w.

Least Mean Square (LMS) a inovace výuky technických předmětů 6 / 19 Položíme-li J n (w) roven nule, dostáváme rovnici R n w = p n

Least Mean Square (LMS) a inovace výuky technických předmětů 6 / 19 Položíme-li J n (w) roven nule, dostáváme rovnici R n w = p n Matice R n má hodnost 1, takže nemá inverzi.

Least Mean Square (LMS) a inovace výuky technických předmětů 6 / 19 Položíme-li J n (w) roven nule, dostáváme rovnici R n w = p n Matice R n má hodnost 1, takže nemá inverzi. Definujeme nové kritérium zprůměrováním J n (w) přes interval n = 1,..., N J LMS (w) = 1 N N J n (w) = 1 N n=1 N e[n] 2. n=1

Least Mean Square (LMS) a inovace výuky technických předmětů 6 / 19 Položíme-li J n (w) roven nule, dostáváme rovnici R n w = p n Matice R n má hodnost 1, takže nemá inverzi. Definujeme nové kritérium zprůměrováním J n (w) přes interval n = 1,..., N J LMS (w) = 1 N N J n (w) = 1 N n=1 N e[n] 2. n=1 Gradient J LMS (w) je průměr gradientů J n (w) J LMS (w) = 1 N N J n (w) n=1

Least Mean Square (LMS) Takže kde a inovace výuky technických předmětů 7 / 19 J LMS (w) = 2p + 2Rw R = 1 N p = 1 N N x n x T n = 1 N n=1 N x n d[n] = 1 N n=1 N n=1 R n N p n. n=1

Least Mean Square (LMS) Takže kde a inovace výuky technických předmětů 7 / 19 J LMS (w) = 2p + 2Rw R = 1 N p = 1 N N x n x T n = 1 N n=1 N x n d[n] = 1 N n=1 N n=1 R n N p n. n=1 Matice R již může mít inverzi (je-li interval n = 1,..., N dostatečně dlouhý). Proto w LMS = R 1 p.

Co jsou prvky R? Auto-kovariance x R ij = 1 N a inovace výuky technických předmětů 8 / 19 N x[n i + 1]x[n j + 1] n=1

Co jsou prvky R? Auto-kovariance x R ij = 1 N a inovace výuky technických předmětů 8 / 19 N x[n i + 1]x[n j + 1] n=1 Matici R lze též zapsat jako R = 1 N XXT kde X = x[1] x[2]...... x[n] 0 x[1]...... x[n 1]..... 0... x[1]... x[n L]

Co jsou prvky R? Auto-kovariance x R ij = 1 N a inovace výuky technických předmětů 8 / 19 N x[n i + 1]x[n j + 1] n=1 Matici R lze též zapsat jako kde X = R = 1 N XXT x[1] x[2]...... x[n] 0 x[1]...... x[n 1]..... 0... x[1]... x[n L] R je symetrická a positivně semidefinitní (má nezáporná vlastní čísla).

a inovace výuky technických předmětů 9 / 19 Co jsou prvky p? Cross-kovariance p j = 1 N N x[n j + 1]d[n] n=1

a inovace výuky technických předmětů 9 / 19 Co jsou prvky p? Cross-kovariance p j = 1 N N x[n j + 1]d[n] n=1 Lze zapsat kde p j = 1 N Xd d = [ d[1], d[2],..., d[n] ] T

a inovace výuky technických předmětů 9 / 19 Co jsou prvky p? Cross-kovariance p j = 1 N N x[n j + 1]d[n] n=1 Lze zapsat kde p j = 1 N Xd d = [ d[1], d[2],..., d[n] ] T Celkově lze psát w LMS = (XX T ) 1 Xd

Wienerův filtr a inovace výuky technických předmětů 10 / 19 Vychází ze stochastického modelu signálů: x a d jsou slabě stacionární.

Wienerův filtr a inovace výuky technických předmětů 10 / 19 Vychází ze stochastického modelu signálů: x a d jsou slabě stacionární. Kritérium definujeme jako J(w) = E[e[n] 2 ]. Díky slabé stacionaritě je toto kritérium nezávislé na n (na čase).

Wienerův filtr a inovace výuky technických předmětů 10 / 19 Vychází ze stochastického modelu signálů: x a d jsou slabě stacionární. Kritérium definujeme jako J(w) = E[e[n] 2 ]. Díky slabé stacionaritě je toto kritérium nezávislé na n (na čase). Operátor střední hodnoty E[ ] je lineární a stejně tak operátor derivace (gradient).

Wienerův filtr a inovace výuky technických předmětů 10 / 19 Vychází ze stochastického modelu signálů: x a d jsou slabě stacionární. Kritérium definujeme jako J(w) = E[e[n] 2 ]. Díky slabé stacionaritě je toto kritérium nezávislé na n (na čase). Operátor střední hodnoty E[ ] je lineární a stejně tak operátor derivace (gradient). Gradient J(w) položíme roven nule, takže kde w wiener = R 1 p, R = E [ ] x n x T n p = E [ x n d[n] ].

LMS vs. Wienerův filtr a inovace výuky technických předmětů 11 / 19 Jsou-li x a d stacionární, pak N + w LMS w wiener

LMS vs. Wienerův filtr a inovace výuky technických předmětů 11 / 19 Jsou-li x a d stacionární, pak N + w LMS w wiener Pokud signály nejsou stacionární, nelze nic obecně usoudit.

Wienerův filtr ve frekvenční oblasti a inovace výuky technických předmětů 12 / 19 Výstup Y (θ) = W (θ)x(θ)

Wienerův filtr ve frekvenční oblasti a inovace výuky technických předmětů 12 / 19 Výstup Y (θ) = W (θ)x(θ) Minimalizujeme J(W (θ)) = E[ D(θ) W (θ)x(θ) 2 ]

Wienerův filtr ve frekvenční oblasti a inovace výuky technických předmětů 12 / 19 Výstup Y (θ) = W (θ)x(θ) Minimalizujeme Wienerův filtr je J(W (θ)) = E[ D(θ) W (θ)x(θ) 2 ] W (θ) = S dx(θ) S xx (θ), kde S dx (θ) = E[D(θ)X(θ)] a S xx (θ) = E[ X(θ) 2 ]

Příklad a inovace výuky technických předmětů 13 / 19 Vstup: zaručený signál s[n] nezávislým šumem v[n] x[n] = s[n] + v[n] X(θ) = S(θ) + V (θ)

Příklad a inovace výuky technických předmětů 13 / 19 Vstup: zaručený signál s[n] nezávislým šumem v[n] x[n] = s[n] + v[n] X(θ) = S(θ) + V (θ) Zde d[n] = s[n], tedy S dx (θ) = E[D(θ)X(θ)] = E[S(θ)(S(θ) + V (θ))] = E[ S(θ) 2 ] S dx (θ) = E[ X(θ) 2 ] = E[ S(θ) + V (θ) 2 ] = E[ S(θ) 2 ] + E[ V (θ) 2 ]

Příklad a inovace výuky technických předmětů 13 / 19 Vstup: zaručený signál s[n] nezávislým šumem v[n] x[n] = s[n] + v[n] X(θ) = S(θ) + V (θ) Zde d[n] = s[n], tedy S dx (θ) = E[D(θ)X(θ)] = E[S(θ)(S(θ) + V (θ))] = E[ S(θ) 2 ] S dx (θ) = E[ X(θ) 2 ] = E[ S(θ) + V (θ) 2 ] Wienerův filtr = E[ S(θ) 2 ] + E[ V (θ) 2 ] W (θ) = E[ S(θ) 2 ] E[ S(θ) 2 ] + E[ V (θ) 2 ]

a inovace výuky technických předmětů 14 / 19 Příklad Výstup Wienerova filtru Y (θ) = W (θ)x(θ) = E[ S(θ) 2 ] E[ S(θ) 2 ] + E[ V (θ) 2 ] X(θ)

a inovace výuky technických předmětů 14 / 19 Příklad Výstup Wienerova filtru Y (θ) = W (θ)x(θ) = Lze zapsat ve tvaru kde Y (θ) = E[ S(θ) 2 ] E[ S(θ) 2 ] + E[ V (θ) 2 ] X(θ) 1 1 + ξ(θ) X(θ), ξ(θ) = 1 SNR(θ) a SNR(θ) = E[ S(θ) 2 ] E[ V (θ) 2 ]

a inovace výuky technických předmětů 15 / 19 Část II Adaptivní filtry

Adaptivní LMS a inovace výuky technických předmětů 16 / 19 Cílem je průběžně měnit filtr w optimalizováním kritéria J n (w n ).

a inovace výuky technických předmětů 16 / 19 Adaptivní LMS Cílem je průběžně měnit filtr w optimalizováním kritéria J n (w n ). LMS: metoda největšího spádu kde µ je délka kroku. w n+1 = w n µ J n (w n ),

a inovace výuky technických předmětů 16 / 19 Adaptivní LMS Cílem je průběžně měnit filtr w optimalizováním kritéria J n (w n ). LMS: metoda největšího spádu kde µ je délka kroku. Po dosazení kde e[n] = d[n] y[n]. w n+1 = w n µ J n (w n ), w n+1 = w n + µx n e[n],

Adaptivní LMS a inovace výuky technických předmětů 16 / 19 Cílem je průběžně měnit filtr w optimalizováním kritéria J n (w n ). LMS: metoda největšího spádu kde µ je délka kroku. Po dosazení kde e[n] = d[n] y[n]. Normalizovaný LMS filtr: w n+1 = w n µ J n (w n ), w n+1 = w n + µx n e[n], x n w n+1 = w n + µ x n 2 e[n].

RLS (Recursive Least Square) a inovace výuky technických předmětů 17 / 19 Optimalizujeme kritérium, které akumuluje chybový signál s exponenciálním zapomínáním n Jn RLS (w n ) = λ n k e n [k] 2, k=1 kde 0 < λ 1 a chybový signál je definovaný jako e n [k] = d[k] w T n x k.

RLS (Recursive Least Square) a inovace výuky technických předmětů 17 / 19 Optimalizujeme kritérium, které akumuluje chybový signál s exponenciálním zapomínáním n Jn RLS (w n ) = λ n k e n [k] 2, k=1 kde 0 < λ 1 a chybový signál je definovaný jako e n [k] = d[k] w T n x k. Položením gradientu Jn RLS (w n ) dostaneme normálovou rovnici Φ n w n = z n, kde Φ n je obdobou R a z n je obdobou p n n Φ n = λ n k x k x T k a z n = λ n k x k d[k]. k=1 k=1

RLS (Recursive Least Square) a inovace výuky technických předmětů 18 / 19 Algoritmus je odvozený tak, abychom (Φ n ) 1 a z n nemuseli v každém kroku počítat znovu. Jsou počítány rekurzivně.

RLS (Recursive Least Square) a inovace výuky technických předmětů 18 / 19 Algoritmus je odvozený tak, abychom (Φ n ) 1 a z n nemuseli v každém kroku počítat znovu. Jsou počítány rekurzivně. Jeden krok algoritmu je počítán h n = P n 1 x n k n = h n λ + x T n h n ξ[n] = d[n] w T n 1 x n w n = w n 1 + k n ξ[n] P n = λ 1 P n 1 λ 1 k n x T n P n 1, kde P n značí (Φ n ) 1. Algoritmus bývá inicializován P 0 = δi a w 0 = [1, 0,..., 0] T.

a inovace výuky technických předmětů 19 / 19 Tento materiál vznikl v rámci projektu ESF CZ.1.07/2.2.00/28.0050 a inovace výuky technických předmětů, který je spolufinancován Evropským sociálním fondem a státním rozpočtem ČR.