Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky
|
|
- Radomír Vávra
- před 9 lety
- Počet zobrazení:
Transkript
1 Neuronové sítě AIL002 Iveta Mrázová 1 František Mráz 2 1 Katedra softwarového inženýrství 2 Kabinet software a výuky informatiky Do LATEXu přepsal: Tomáš Caithaml
2 Učení s učitelem Rozpoznávání Použití: Optimalizační úlohy Asociativní paměť
3 Příklady Rozpoznávání a resturace automobilových firemních značek I Hopfieldova síť (se simulovaným žíháním) asociativní paměť (část obsahu použit jako klíč) Vzory: matice(17,7) Síť: 119 neuronů, vah Simulované žíhání Teplota žíhání (4,5) x Míra žíhání (0,99) Příklad: BMW x Mercedes
4 Příklady Rozpoznávání osob Hopfieldova síť se simulovaným žíháním (127 neuronů) Klíč: Zašuměná část obličeje (partie kolem očí) 4 různé portréty Kódování pro vstupy sítě (zde hrubé rastrování) Pomalé žíhání: lepší výsledky
5 Hopfieldův model (bipolární) Hopfieldův model (bipolární) I n neuronů se skokovou přenosovou funkcí binární vstupy i výstupy {+1,-1} synaptické váhy w ij (mezi všemi neurony navzájem) m trénovacích vzorů (tříd) Skoková přenosová funkce: t h
6 Hopfieldův model (bipolární) Algoritmus výpočtu I 1 Nastavte hodnoty synaptických vah. w ij = j P m s=1 x i s xj s pro i j 0 pro i = j 1 i, j n w ij... váha synapse mezi neurony i a j xi s { 1, +1}... i-tá složka s-tého vzoru 2 Předložte neznámý vstupní vzor inicializace y i(0) = x i 1 i n y i(t)... výstup neuronu i v čase t x i { 1, +1}... i-tá souřadnice predloženého vzoru
7 Hopfieldův model (bipolární) Algoritmus výpočtu II 3 Iterace y j(t + 1) = f h " w ijy i(t) # 1 j n f h skoková přenosová funkce Proces se opakuje dokud se výstupy neuronů neustálí. Výstupy neuronů pak reprezentují ten trénovací vzor, který nejlépe odpovídá předloženému (neznámému) vzoru. 4 Přejděte ke kroku 3. Konvergence(Hopfield): Symetrické váhy: w ij = w ji Asynchronní aktualizace výstupu jednotlivých neuronů Nevýhody: Kapacita (m < 0.18n) n 2 log n Stabilita (ortogonalizace)
8 Rozpoznávání Rozpoznávání I Po předložen vzoru x 1 bude vektor potenciálů sítě ξ = x 1W = x 1 x T 1 x x T m x m mi n = x 1 x 1 T x 1 + x 2 x 2 T x x m x m x m m x 1I {z } {z } {z } n α 12 α 1m mx = (n m) x 1 + α 1j x j j=2 {z } PERTURBACE α 12,..., α 1m skalární součin x 1 s každým dalším vektorem x 2,..., x m Stav x 1 je stabilní jestliže m < n a perturbace P m j=2 α1j x j je malá (sgn( ξ) = sgn( x 1)) Malý počet ortogonálních vzorů. T
9 Rozpoznávání Příklad I Učení: Vzory: [ 1, 1, 1, 1], [1, 1, 1, 1] Nastavení vah: w ij = P M m=1 x(m) i x (m) j... i j w ij = 0... i = j W = Rozpoznávání: Vzor: [ 1, 1, 1, 1] Výsledky: [1, 1, 1, 1] [ 1, 1, 1, 1]
10 Hopfieldův model Hopfieldův model I Stav neuronu zachován, dokud nejsou vybrány k aktualizaci Výběr pro aktualizaci se provádí náhodně Neurony jsuo navzájem plně propojeny Symetrické váhy: w ij = w ji w ii = 0 Nutná podmínka: Symetrická váhová matice s nulovou diagonálou a asynchronní dynamikou w ij B W C A w ji... 0 Konvergence ke stabilnímu řešení při rozpoznávání
11 Hopfieldův model Příklady Váhová matice s nenulovou diagonálou nemusí vést ke stabilním stavům W A Synchronní dynamika:( 1, 1, 1) (1, 1, 1) Asynchronní dynamika: Náhodný výběr 1 z 8 možných vzorů «0 1 Nesymetrická matice: W = 1 0 Asynchronni dynamika cyklické změny.
12 Energetická funkce E( x) Energetická funkce E( x) I Vyjadřuje energii sítě ve stavu x (pro Hopfieldovu sít s n neurony a váhovou maticí W ): E( x) = 1 2 x W x T = 1 2 j=1 w ijx ix j Hopfieldova síť s asynchronní dynamikou dosáhne z libovolného počátečního stavu sítě stabilního stavu v lokálním minimu energetické funkce. (obdobně i pro sítě s prahovými neurony a energií: 1 x W x T + Θ x T P = 1 n P n 2 2 j=1 wijxixj + P n δixi Počáteční stav x = (x 1,..., x k,..., x n) (předložený vzor) E( x) = 1 2 j=1 w ijx ix j K aktualizaci vybrán neuron k k nezmění svůj stav E( x) se nezmění k změní svůj stav x = (x 1,..., x k,..., xn)
13 Energetická funkce E( x) Energetická funkce E( x) II E( x ) = 1 2 Rozdíl energií: j=1 j k i k E( x) E( x ) = w ijx ix j w ik x ix k j=1 w ik x ix k = (x k x k) w kk =0 =! w ik x ix k w ik x i > 0 ( 1 2 P n j=1 w kjx kx j 1 2 P n w ikx ix k Vždy, když dojde ke změně stavu neuronu, sníží se celková energie sítě. Konečný počet možných stavů. Stabilní stav, kdy energii sítě už nelze snižovat.
14 Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model I V některých případech nelze nalézt pomocí hebbovského učení váhovou matici tak, aby m daných vektorů odpovídalo stabilním stavům sítě (i když taková matice existuje). Pokud leží vektory, které mají být do sítě uloženy, hodně blízko, může být crosstalk příliš velký. Horší výsledky hebbovského učení. Alternativa: Perceptronové učení pro. Hopfieldova síť s neurony, které mají nenulový práh a skokovou přenosovou funkci. Neuron má stav 1, je-li potenciál větší než 0. Neuron má stav -1, je-li potenciál menší nebo roven 0. Uvažujme Hopfieldovu síť n... počet neuronů W = {w ij}... n nmatice vah δ i... práh neuronu i
15 Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model II Má-li si síť zapamatovat vektor x = (x 1,..., x n), bude tento vektor odpovídat stabilnímu stavu sítě tehdy, jestliže se po jeho předložení stav sítě nezmění. Potenciál neuronu by měl mít stejné znaménko jako jeho předchozí stav. Nulovým hodnotám bude odpovídat záporné znaménko. Měly by platit následující nerovnosti: Neuron 1: sgn(x 1)( 0 + x 2w x nw 1n ϑ 1) > 0 Neuron 2: sgn(x 2)( x 1w x nw 2n ϑ 2) > Neuron n: sgn(x n)( x 1w n1 + x 2w n ϑ n) > 0 w ij = w ji n(n 1)/2 nenulových prvků váhové matice + n prahů. Nechť v je vektor dimenze n(n 1)/2 (složky v odpovídají prvkům w ij nad diagonálou matice W a n prahům se záporným znaménkem) v = (w 12, w 13,..., w 1n, w 23, w 24,..., w 2n,..., w n 1,n, ϑ 1,..., ϑ n ) {z } {z } {z } {z } n 1 n 2 1 n
16 Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model III Transformace vektoru x do n pomocných vektorů z 1,..., z n dimenze n + n(n 1)/2: z 1 = (x 2, x 3,..., x n, 0, 0,.... 1, 0,..., 0) {z } {z } n 1 n z 2 = (x 1, 0,..., 0, x 3,..., x n, 0, 0,..., 0, 1,..., 0) {z } {z } {z } n 1 n 2 n z n = (0, 0,..., x 1, 0, 0,..., x 2, 0, 0...., 0, 0,..., 1) {z } {z } {z } n 1 n 2 n Složky vektorů z 1,..., z n umožňují ekvivalentní zápis předchozích nerovností: Neuron 1: sgn(x 1) z 1 v > 0 Neuron 2: sgn(x 2) z 2 v > > 0 Neuron n: sgn(x n) z n v > 0
17 Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model Ekvivalence Hebbovského a perceptronového učení pro Hopfieldův model IV K lineární separaci vektorů z 1,..., z n (podle sgn(x i)) lze použít perceptronové učení. Spočítat vektor vah v nutný pro lineární separaci z 1,..., z n a nastavit váhovou matici W. Pokud si má hopfieldova síť zapamatovat m vektorů x 1,..., x m, je třeba použít popsanou transformaci pro každý vektor. m n pomocných vektorů, které je třeba lineárně odseparovat. Pokud jsou vektory lineárně separabilní, najde perceptronové učení řešení zakódované ve formě v Učení hopf. sítě s n neurony učení perceptronu s dim. vst. prostoru n + n(n 1)/2
18 Optimalizační úlohy Multiflop Binární kódování - 0/1 x 1,..., x n binární stavy jednotlivých neuronů hopfieldovy sítě. Síť by se měla dostat do stavu, kdy bude právě jeden neuron aktivní; stav všech ostatních neuronů by měl být 0. Cíl: Nalézt minimum funkce: E(x 1,..., x n) = 2 x i 1! = x 2 i + x ix j 2 i j x i + 1 ( Porovnání s energetickou fcí hopf.mod. = 1/2 P n = P n i j xixj P n xi + 1 i j ( 2) xixj + P n ( 1) xi + 1
19 Optimalizační úlohy Problém n věží I Umístit na šachovnici n n, n věží tak, aby se navzájem neohrožovaly. Každá věž by měla být v jiném řádku i sloupku než ostatní. x P ij... stav neuronu na pozici ij šachovnice. n xij... počet stavů 1 ve sloupci j. V každém sloupci by měla být jen jedna jednička. minimalizace: E 1(x 11,..., x nn) = P n j=1 Podobně pro řádky: E 2(x 11,..., x nn) = P n `P n xi 1 2 Pn j=1 xi 1 2 Minimalizujeme E = E 1 + E 2 nastavení vah a prahů sítě:
20 Optimalizační úlohy Problém obchodního cestujícího (NP-úplný problém) I Cíl: Nalézt cestu přes n měst M 1,..., M n tak, aby bylo každé město navštíveno alespoň jednou a délka okružní jízdy byla minimální. Reprezentace pomocí matice M M M M x ij... stav neuronu odpovídá údaji z matice d ij... vzdálenost mezi městy M i a M j Konvence: (n + 1)-ní sloupec je stejný jako první (kružnice) x ik = x jk+1 = 1 město M i je navštíveno k k-tém kroku a město M j je navštíveno v (k+1)-ním kroku. přičíst d ij k celkové délce cesty.
21 Optimalizační úlohy Problém obchodního cestujícího (NP-úplný problém) II Minimalizace délky cesty: L = 1/2 d ijx ik x j,k+1 i,j,k Povolena jediná návštěva vždy jen jednoho města. Požadavky na přípustnou cestu minimalizace E: E = 1 d ijx ik x j,k+1 + γ/2 2 i,j,k 2 x ij 1! + j=1! 2! x ij 1 j=1 Nastavení vah a prahů sítě: w ik,jk+1 = d ij + t ik,jk+1, kde ( γ pro neurony ve stejné řádce či sloupci t ik,jk+1 = 0 jinak δ ij = γ 2
22 Optimalizační úlohy Další varianty Hopfieldova modelu I Spojitý model Zvětšit počet možných cest k řešení Sigmoidální přenosová funkce Stochastické modely Omezení lokálních minim energetické funkce Možnost aktualizovat stav sítě i za cenu dočasného zvýšení její energie. Simulované žíhání
23 Stochastické modely neuronových sítí Stochastické modely neuronových sítí Hopfieldův model se používá k řešení optimalizačních prolémů, které lze vyjádřit ve formě minimalizované energetické funkce (i když není zaručeno nalezení globálního optima) Problém: Zabránit uvíznutí v lokálním minimu energetické funkce. Modifikace Hopfieldova modelu: 1 Strategie: zvětšení počtu možných cest k řešení ve stavovém prostoru dovolit i stavy ve fromě reálných hodnot spojitý model 2 Strategie: omezení lokálních minim energetické funkce pomocí zašuměné dynamiky sítě dočasné povolení aktualizace stavu sítě i za cenu přecodného zvýšení energetické hladiny Simulované žíhání, Boltzmannův stroj.
24 Spojitý model Spojitý model I Aktivace neuronu i vybraného pro aktualizaci podle: x i = s(u i) = 1, kde u i označuje excitaci neuronu i. 1 + e u i Dodatečný předpoklad pomalé změny excitace neuronu v čase podle:!! du i dt = γ ui + w ijx j = γ u i + w ijs(u j) j=1 j=1 γ > 0... adaptační parametr w ij... váha mezi neuronem i a j Při simulacích spočítat diskrétní aproximaci du i a přičíst ji k aktuální hodnotě u i. Výsledkem bude nový stav x i = s(u i) Asynchronní dynamika vede k dosažení rovnovážného stavu
25 Spojitý model Spojitý model II Energetická funkce pro spojitý model E = 1 2 j=1 w ijx ix j + Z xi 0 s 1 (x)dx Po každé aktualizaci stavu neuronu se hodnota energetické funkce snižuje: de dt = j=1 w ij dx i dt xj + s 1 (x i) dxi dt Protože síť je symetrická: w ij = w ji a zároveň u i = s 1 (x i)! de dt = dx i w ijx j u i dt j=1
26 Spojitý model Spojitý model III Přitom: du i dt Pn = γ j=1 wijxj ui de dt = 1 γ «2 s 1 dui (u i) dt Navíc platí s 1 (u i) > 0 (sigmoida je monotonně rostoucí funkce) γ > 0. Proto de dt 0. Stabilního stavu síť dosáhne, pokud de/dt vymizí. Taková situace nastane, pokud du i/dt dosáhne saturační oblasti sigmoidy, kde bude du i/dt 0 Pro kombinatorické problémy může spojitý model nalézt lepší řešení než model diskrétní. Pro velmi složité problémy (typu TSP) ovšem spojitý model obecně nenachází výrazně lepší řešení.
27 Simulované žíhání Simulované žíhání I Při minimalizaci energetické funkce E se tento jev simuluje následujícím způsobem: Hodnota proměnné x se změní vždy, když může aktualizace x zmenšit hodnotu energetické funkce E Pokud by se při aktualizaci x naopak hodnota E zvýšila o x, bude nová hodnota x (tj. x + x) přijata s pravděpodobností p E p E = 1, kde T je tzv. teplotní konstanta. 1 + e E/T Pro velké hodnoty T bude p E 1/2 a aktualizace stavu nastane zhruba v polovině těchto případů. Pro T = 0 bude docházet pouze k takovým aktualizacím, kdy se hodnota E sníží.
28 Simulované žíhání Simulované žíhání II Postupná změna hodnot T z velmi vysokých hodnost směrem k nule odpovídá zahřátí a postupnému ochlazování v procesu žíhání. Navíc lze ukázat, že touto strategií lze dosáhnout (asymptoticky) globálního minima energetické funkce. Sigmoida nejlépe opodvídá funkcím používaným v termodynamice (pro analýzu teplotní rovnováhy).
29 Boltzmannův stroj Boltzmannův stroj I Definice Boltzmanův stroj je Hopfieldova síť, která se skládá z n neuronů se stavy x 1,..., x n. Stav neuronu i se aktualizuje asynchronně podle pravidla: ( 1 s pravděpodobností p i 1 x i =, kde p i = 0 s pravděpodobností 1 p i 1 + e (P n j=1 w ij x j δ i)/t T... kladná teplotní konstanta w ij... označují váhy sítě δ i... označují prahy neuronů Binární stavy neuronů Energetická funkce Boltzmannova stroje E = 1 2 w ijx ix j + δ ix i j=1
30 Boltzmannův stroj Boltzmannův stroj II Rozdíl mezi Boltzmannovým strojem a Hopfieldovým modelem spočívá ve stochastické aktivaci neuronů. Pokud je T velmi malé, bude p i 1, jestliže je P n wijxj δi > 0 Pokud je excitace neuronu záporná bude p i 0 Dynamika Boltzmannova stroje aproximuje dynamiku diskrétní Hopfieldovy sítě a Boltzmannův stroj najde lokální minimum energetické funkce. Pro T > 0 je pravděpodobnost změny anebo posloupnosti změn ze stavu x 1,..., x n do jiného stavu vždy nenulová. Boltzmanův stroj nezůstane v jediném stavu snižování a zároveň možnost zvyšování energie systému Pro velké hodnoty T projde síť téměř celý stavový prostor V ochlazovací fázi má síť tendenci zůstávat déle v oblastech blízkých atraktorům lokálních minim Pokud se teplota snižuje správným způsobem, můžeme očekávat, že systém dosáhne globálního minima s pravděpodobností 1.
Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44
Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný
VíceUmělé neuronové sítě
Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační
VíceÚvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
VíceLineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
VíceAlgoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
VíceÚloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
VíceTrénování sítě pomocí učení s učitelem
Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup
Více3. Vícevrstvé dopředné sítě
3. Vícevrstvé dopředné sítě! Jsou tvořeny jednou nebo více vrstvami neuronů (perceptronů). Výstup jedné vrstvy je přitom připojen na vstup následující vrstvy a signál se v pracovní fázi sítě šíří pouze
Více5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015
Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační
VíceAplikovaná numerická matematika
Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních
VíceKapitola 11: Vektory a matice:
Kapitola 11: Vektory a matice: Prostor R n R n = {(x 1,, x n ) x i R, i = 1,, n}, n N x = (x 1,, x n ) R n se nazývá vektor x i je i-tá souřadnice vektoru x rovnost vektorů: x = y i = 1,, n : x i = y i
VíceRosenblattův perceptron
Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného
VíceMatice. Modifikace matic eliminační metodou. α A = α a 2,1, α a 2,2,..., α a 2,n α a m,1, α a m,2,..., α a m,n
[1] Základní pojmy [2] Matice mezi sebou sčítáme a násobíme konstantou (lineární prostor) měníme je na jiné matice eliminační metodou násobíme je mezi sebou... Matice je tabulka čísel s konečným počtem
VíceVYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY
VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY Jan Krejčí 31. srpna 2006 jkrejci@physics.ujep.cz http://physics.ujep.cz/~jkrejci Obsah 1 Přímé metody řešení soustav lineárních rovnic 3 1.1 Gaussova eliminace...............................
VíceArchitektura - struktura sítě výkonných prvků, jejich vzájemné propojení.
Základní pojmy z oblasti neuronových sítí Zde je uveden přehled některých základních pojmů z oblasti neuronových sítí. Tento přehled usnadní studium a pochopení předmětu. ADALINE - klasická umělá neuronová
VíceMatematika B101MA1, B101MA2
Matematika B101MA1, B101MA2 Zařazení předmětu: povinný předmět 1.ročníku bc studia 2 semestry Rozsah předmětu: prezenční studium 2 + 2 kombinované studium 16 + 0 / semestr Zakončení předmětu: ZS zápočet
VíceNumerické metody a programování. Lekce 8
Numerické metody a programování Lekce 8 Optimalizace hledáme bod x, ve kterém funkce jedné nebo více proměnných f x má minimum (maximum) maximalizace f x je totéž jako minimalizace f x Minimum funkce lokální:
VíceVektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace
Vektory a matice Aplikovaná matematika I Dana Říhová Mendelu Brno Obsah 1 Vektory Základní pojmy a operace Lineární závislost a nezávislost vektorů 2 Matice Základní pojmy, druhy matic Operace s maticemi
VíceDnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda
Předmět: MA 4 Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Četba: Text o lineární algebře v Příručce přežití na webových
VíceZáklady maticového počtu Matice, determinant, definitnost
Základy maticového počtu Matice, determinant, definitnost Petr Liška Masarykova univerzita 18.9.2014 Matice a vektory Matice Matice typu m n je pravoúhlé (nebo obdélníkové) schéma, které má m řádků a n
VíceKapitola 11: Vektory a matice 1/19
Kapitola 11: Vektory a matice 1/19 2/19 Prostor R n R n = {(x 1,..., x n ) x i R, i = 1,..., n}, n N x = (x 1,..., x n ) R n se nazývá vektor x i je i-tá souřadnice vektoru x rovnost vektorů: x = y i =
VíceAplikovaná numerická matematika - ANM
Aplikovaná numerická matematika - ANM 3 Řešení soustav lineárních rovnic iterační metody doc Ing Róbert Lórencz, CSc České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových
VíceMatice. Předpokládejme, že A = (a ij ) je matice typu m n: diagonálou jsou rovny nule.
Matice Definice. Maticí typu m n nazýváme obdélníkové pole, tvořené z m n reálných čísel (tzv. prvků matice), zapsaných v m řádcích a n sloupcích. Značíme např. A = (a ij ), kde i = 1,..., m, j = 1,...,
VíceAlgoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby
Algoritmy a struktury neuropočítačů ASN P4 Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby Vrstevnatá struktura - vícevrstvé NN (Multilayer NN, MLNN) vstupní vrstva (input layer)
VíceLineární algebra Operace s vektory a maticemi
Lineární algebra Operace s vektory a maticemi Robert Mařík 26. září 2008 Obsah Operace s řádkovými vektory..................... 3 Operace se sloupcovými vektory................... 12 Matice..................................
VíceGlobální matice konstrukce
Globální matice konstrukce Z matic tuhosti a hmotnosti jednotlivých prvků lze sestavit globální matici tuhosti a globální matici hmotnosti konstrukce, které se využijí v řešení základní rovnice MKP: [m]{
VíceMATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT
8. licenční studium Univerzita Pardubice Fakulta chemicko-technologická Katedra analytické chemie MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT Příklady: ) Najděte vlastní (charakteristická) čísla a vlastní
VíceVšechno, co jste kdy chtěli vědět o maticích, ale báli jste se zeptat
Všechno, co jste kdy chtěli vědět o maticích, ale báli jste se zeptat Čtvercová matice n n, např. může reprezentovat: A = A A 2 A 3 A 2 A 22 A 23 A 3 A 32 A 33 matici koeficientů soustavy n lineárních
VíceOPTIMALIZAČNÍ ÚLOHY. Modelový příklad problém obchodního cestujícího:
OPTIMALIZAČNÍ ÚLOHY Problém optimalizace v různých oblastech: - minimalizace času, materiálu, - maximalizace výkonu, zisku, - optimalizace umístění komponent, propojení,... Modelový příklad problém obchodního
VíceNumerické metody a programování
Projekt: Inovace výuky optiky se zaměřením na získání experimentálních dovedností Registrační číslo: CZ.1.7/2.2./28.157 Numerické metody a programování Lekce 4 Tento projekt je spolufinancován Evropským
Více19 Hilbertovy prostory
M. Rokyta, MFF UK: Aplikovaná matematika III kap. 19: Hilbertovy prostory 34 19 Hilbertovy prostory 19.1 Úvod, základní pojmy Poznámka (připomenutí). Necht (X,(, )) je vektorový prostor se skalárním součinem
VíceFiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc
Neuronové sítě a možnosti jejich využití Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc 1. Biologický neuron Osnova 2. Neuronové sítě Umělý neuron
Více5. Umělé neuronové sítě. Neuronové sítě
Neuronové sítě Přesný algoritmus práce přírodních neuronových systémů není doposud znám. Přesto experimentální výsledky na modelech těchto systémů dávají dnes velmi slibné výsledky. Tyto systémy, včetně
VíceVĚTY Z LINEÁRNÍ ALGEBRY
VĚTY Z LINEÁRNÍ ALGEBRY Skripta Matematické metody pro statistiku a operační výzkum (Nešetřilová, H., Šařecová, P., 2009). 1. věta Nechť M = {x 1, x 2,..., x k } je množina vektorů z vektorového prostoru
VíceSoustavy lineárních rovnic
Přednáška MATEMATIKA č 4 Katedra ekonometrie FEM UO Brno kancelář 69a, tel 973 442029 email:jirineubauer@unobcz 27 10 2010 Soustava lineárních rovnic Definice Soustava rovnic a 11 x 1 + a 12 x 2 + + a
VícePřednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
VíceZáklady matematiky pro FEK
Základy matematiky pro FEK 2. přednáška Blanka Šedivá KMA zimní semestr 2016/2017 Blanka Šedivá (KMA) Základy matematiky pro FEK zimní semestr 2016/2017 1 / 20 Co nás dneska čeká... Závislé a nezávislé
VíceDefinice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně
7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností
VíceNumerické metody a programování. Lekce 4
Numerické metody a programování Lekce 4 Linarní algebra soustava lineárních algebraických rovnic a 11 a 12 x 2 a 1, N x N = b 1 a 21 a 22 x 2 a 2, N x N = b 2 a M,1 a M,2 x 2 a M,N x N = b M zkráceně A
VíceEUKLIDOVSKÉ PROSTORY
EUKLIDOVSKÉ PROSTORY Necht L je lineární vektorový prostor nad tělesem reálných čísel R. Zobrazení (.,.) : L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx,
VíceČetba: Texty o lineární algebře (odkazy na webových stránkách přednášejícího).
Předmět: MA 4 Dnešní látka Vektorový (lineární) prostor (připomenutí) Normovaný lineární prostor Normy matic a vektorů Symetrické matice, pozitivně definitní matice Gaussova eliminační metoda, podmíněnost
Vícestránkách přednášejícího.
Předmět: MA 4 Dnešní látka Iterační metoda Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Superrelaxační metoda (metoda SOR) Metoda sdružených gradientů Četba: Text o lineární algebře v Příručce
Více8 Matice a determinanty
M Rokyta, MFF UK: Aplikovaná matematika II kap 8: Matice a determinanty 1 8 Matice a determinanty 81 Matice - definice a základní vlastnosti Definice Reálnou resp komplexní maticí A typu m n nazveme obdélníkovou
VíceÚvod do lineární algebry
Úvod do lineární algebry 1 Aritmetické vektory Definice 11 Mějme n N a utvořme kartézský součin R n R R R Každou uspořádanou n tici x 1 x 2 x, x n budeme nazývat n rozměrným aritmetickým vektorem Prvky
Více1 Projekce a projektory
Cvičení 3 - zadání a řešení úloh Základy numerické matematiky - NMNM20 Verze z 5. října 208 Projekce a projektory Opakování ortogonální projekce Definice (Ortogonální projekce). Uvažujme V vektorový prostor
VícePřipomenutí co je to soustava lineárních rovnic
Připomenutí co je to soustava lineárních rovnic Příklad 2x 3y + z = 5 3x + 5y + 2z = 4 x + 2y z = 1 Soustava lineárních rovnic obecně Maticový tvar: a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a
VíceInterpolace, ortogonální polynomy, Gaussova kvadratura
Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť
VíceANTAGONISTICKE HRY 172
5 ANTAGONISTICKÉ HRY 172 Antagonistický konflikt je rozhodovací situace, v níž vystupují dva inteligentní rozhodovatelé, kteří se po volbě svých rozhodnutí rozdělí o pevnou částku, jejíž výše nezávisí
VíceUČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
VíceVektorový prostor. Př.1. R 2 ; R 3 ; R n Dvě operace v R n : u + v = (u 1 + v 1,...u n + v n ), V (E 3 )...množina vektorů v E 3,
Vektorový prostor Příklady: Př.1. R 2 ; R 3 ; R n...aritmetický n-rozměrný prostor Dvě operace v R n : součet vektorů u = (u 1,...u n ) a v = (v 1,...v n ) je vektor u + v = (u 1 + v 1,...u n + v n ),
Více1 0 0 u 22 u 23 l 31. l u11
LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23
VíceHammingovy kódy. dekódování H.kódů. konstrukce. šifrování. Fanova rovina charakteristický vektor. princip generující a prověrková matice
Hammingovy kódy konstrukce Fanova rovina charakteristický vektor šifrování princip generující a prověrková matice dekódování H.kódů třída lineárních binárních kódů s A n, 3 n = délka kódu, d = distance
VíceSoustava m lineárních rovnic o n neznámých je systém
1 1.2. Soustavy lineárních rovnic Soustava lineárních rovnic Soustava m lineárních rovnic o n neznámých je systém a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2...
Více13. cvičení z PSI ledna 2017
cvičení z PSI - 7 ledna 07 Asymptotické pravděpodobnosti stavů Najděte asymptotické pravděpodobnosti stavů Markovova řetězce s maticí přechodu / / / 0 P / / 0 / 0 0 0 0 0 0 jestliže počáteční stav je Řešení:
VíceTransformace obrazu Josef Pelikán KSVI MFF UK Praha
Transformace obrazu 99725 Josef Pelikán KSVI MFF UK Praha email: Josef.Pelikan@mff.cuni.cz WWW: http://cgg.ms.mff.cuni.cz/~pepca/ Transformace 2D obrazu dekorelace dat potlačení závislosti jednotlivých
VíceFakt. Každou soustavu n lineárních ODR řádů n i lze eliminací převést ekvivalentně na jednu lineární ODR
DEN: ODR teoreticky: soustavy rovnic Soustava lineárních ODR 1 řádu s konstantními koeficienty je soustava ve tvaru y 1 = a 11 y 1 + a 12 y 2 + + a 1n y n + b 1 (x) y 2 = a 21 y 1 + a 22 y 2 + + a 2n y
VíceVlastní číslo, vektor
[1] Vlastní číslo, vektor motivace: směr přímky, kterou lin. transformace nezmění invariantní podprostory charakteristický polynom báze, vzhledem ke které je matice transformace nejjednodušší podobnost
VíceMaticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:
3 Maticový počet 3.1 Zavedení pojmu matice Maticí typu (m, n, kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: a 11 a 12... a 1k... a 1n a 21 a 22...
VíceALGEBRA. Téma 4: Grupy, okruhy a pole
SLEZSKÁ UNIVERZITA V OPAVĚ Matematický ústav v Opavě Na Rybníčku 1, 746 01 Opava, tel. (553) 684 611 DENNÍ STUDIUM Téma 4: Grupy, okruhy a pole Základní pojmy unární operace, binární operace, asociativita,
VíceCo je obsahem numerických metod?
Numerické metody Úvod Úvod Co je obsahem numerických metod? Numerické metody slouží k přibližnému výpočtu věcí, které se přesně vypočítat bud nedají vůbec, nebo by byl výpočet neúměrně pracný. Obsahem
VíceANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
Více3. ANTAGONISTICKÉ HRY
3. ANTAGONISTICKÉ HRY ANTAGONISTICKÝ KONFLIKT Antagonistický konflikt je rozhodovací situace, v níž vystupují dva inteligentní rozhodovatelé, kteří se po volbě svých rozhodnutí rozdělí o pevnou částku,
VíceUčební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008
Učební texty k státní bakalářské zkoušce Matematika Skalární součin študenti MFF 15. augusta 2008 1 10 Skalární součin Požadavky Vlastnosti v reálném i komplexním případě Norma Cauchy-Schwarzova nerovnost
Více1 Báze a dimenze vektorového prostoru 1
1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější
Více2. Schurova věta. Petr Tichý. 3. října 2012
2. Schurova věta Petr Tichý 3. října 2012 1 Podobnostní transformace a výpočet vlastních čísel Obecný princip: Úloha: Řešíme-li matematickou úlohu, je často velmi vhodné hledat její ekvivalentní formulaci
Více5. Lokální, vázané a globální extrémy
5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,
Více2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC
.6. VLASTNÍ ČÍSLA A VEKTORY MATIC V této kapitole se dozvíte: jak jsou definována vlastní (charakteristická) čísla a vektory čtvercové matice; co je to charakteristická matice a charakteristický polynom
VíceNáhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X
Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich
VíceMatematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic
Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je
Více0.1 Úvod do lineární algebry
Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Vektory Definice 011 Vektorem aritmetického prostorur n budeme rozumět uspořádanou n-tici reálných čísel x 1, x 2,, x n Definice 012 Definice sčítání
Víceftp://math.feld.cvut.cz/pub/olsak/linal/
Petr Olšák Výcuc z textu Lineární algebra určeno pro promítání na přednášce Úvod do algebry http://www.olsak.net/linal.html ftp://math.feld.cvut.cz/pub/olsak/linal/ http://math.feld.cvut.cz/skripta/ua/
Vícez textu Lineární algebra
2 Úvodní poznámky Petr Olšák Výcuc z textu Lineární algebra určeno pro promítání na přednášce Úvod do algebry http://www.olsak.net/linal.html ftp://math.feld.cvut.cz/pub/olsak/linal/ http://math.feld.cvut.cz/skripta/ua/
Vícematiceteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést
Úlohy k zamyšlení 1. Zdůvodněte, proč třetí řádek Hornerova schématu pro vyhodnocení polynomu p v bodě c obsahuje koeficienty polynomu r, pro který platí p(x) = (x c) r(x) + p(c). 2. Dokažte, že pokud
VícePROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti
PROSTORY SE SKALÁRNÍM SOUČINEM Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx, y) = λ(x,
VíceFaculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague
Tomáš Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague 1 / 63 1 2 3 4 5 6 7 8 9 10 11 2 / 63 Aritmetický vektor Definition 1 Aritmetický vektor x je uspořádaná
VícePodobnostní transformace
Schurova věta 1 Podobnostní transformace a výpočet vlastních čísel Obecný princip: Úloha: Řešíme-li matematickou úlohu, je často velmi vhodné hledat její ekvivalentní formulaci tak, aby se řešení úlohy
VíceANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík,, CSc. NEURONOVÉ SÍTĚ otázky a odpovědi 1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma
Více2 Vektorové normy. Základy numerické matematiky - NMNM201. Definice 1 (Norma). Norma je funkcionál splňující pro libovolné vektory x a y a pro
Cvičení 1 Základy numerické matematiky - NMNM201 1 Základní pojmy opakování Definice 1 (Norma). Norma je funkcionál splňující pro libovolné vektory x a y a pro libovolný skalár α C následující podmínky:
VíceNumerické metody optimalizace - úvod
Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu
VíceKlasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
VíceKombinatorická minimalizace
Kombinatorická minimalizace Cílem je nalézt globální minimum ve velké diskrétní množině, kde může být mnoho lokálních minim. Úloha obchodního cestujícího Cílem je najít nejkratší cestu, která spojuje všechny
VíceKybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
Více10. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo
0. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo (PEF PaA) Petr Gurka aktualizováno 9. prosince 202 Obsah Základní pojmy. Motivace.................................2 Aritmetický vektorový
VíceLineární algebra. Matice, operace s maticemi
Lineární algebra Matice, operace s maticemi Operační program Vzdělávání pro konkurenceschopnost Název projektu: Inovace magisterského studijního programu Fakulty ekonomiky a managementu Registrační číslo
VíceNeuronové časové řady (ANN-TS)
Neuronové časové řady (ANN-TS) Menu: QCExpert Prediktivní metody Neuronové časové řady Tento modul (Artificial Neural Network Time Series ANN-TS) využívá modelovacího potenciálu neuronové sítě k predikci
VíceDeterminanty. Obsah. Aplikovaná matematika I. Pierre Simon de Laplace. Definice determinantu. Laplaceův rozvoj Vlastnosti determinantu.
Determinanty Aplikovaná matematika I Dana Říhová Mendelu Brno Obsah 1 Determinanty Definice determinantu Sarrusovo a křížové pravidlo Laplaceův rozvoj Vlastnosti determinantu Výpočet determinantů 2 Inverzní
VíceIB112 Základy matematiky
IB112 Základy matematiky Řešení soustavy lineárních rovnic, matice, vektory Jan Strejček IB112 Základy matematiky: Řešení soustavy lineárních rovnic, matice, vektory 2/53 Obsah Soustava lineárních rovnic
VíceMENDELOVA UNIVERZITA V BRNĚ LDF MT MATEMATIKA VEKTORY, MATICE
MENDELOVA UNIVERZITA V BRNĚ LDF MT MATEMATIKA VEKTORY, MATICE Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem na discipliny společného
VíceMENDELOVA UNIVERZITA V BRNĚ LDF MT MATEMATIKA VEKTORY, MATICE
MENDELOVA UNIVERZITA V BRNĚ LDF MT MATEMATIKA VEKTORY, MATICE Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem na discipliny společného
VíceFP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci
FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci OBSAH A CÍLE SEMINÁŘE: Opakování a procvičení vybraných
VíceMATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]
MATICE Matice typu m/n nad tělesem T je soubor m n prvků z tělesa T uspořádaných do m řádků a n sloupců: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] a m1 a m2 a mn Prvek a i,j je prvek matice A na místě
Více7. Důležité pojmy ve vektorových prostorech
7. Důležité pojmy ve vektorových prostorech Definice: Nechť Vje vektorový prostor a množina vektorů {v 1, v 2,, v n } je podmnožinou V. Pak součet skalárních násobků těchto vektorů, tj. a 1 v 1 + a 2 v
VíceDEFINICE Z LINEÁRNÍ ALGEBRY
DEFINICE Z LINEÁRNÍ ALGEBRY Skripta Matematické metody pro statistiku a operační výzkum (Nešetřilová, H., Šařecová, P., 2009). 1. definice Vektorovým prostorem rozumíme neprázdnou množinu prvků V, na které
VíceLineární algebra - I. část (vektory, matice a jejich využití)
Lineární algebra - I. část (vektory, matice a jejich využití) Michal Fusek Ústav matematiky FEKT VUT, fusekmi@feec.vutbr.cz 2. přednáška z ESMAT Michal Fusek (fusekmi@feec.vutbr.cz) 1 / 40 Obsah 1 Vektory
Vícea + b + c = 2 b + c = 1 a b = a 1 2a 1 + a a 3 + a 5 + 2a 2 + a 2 + a
Zadání A. 1. Polynom P (x) má v uspořádané bázi (x 2 + x 1, 2x 2 x 1, x 2 + x + 2) souřadnice (1, 1, 1). Najděte jeho souřadnice vzhledem k uspořádané bázi (x 2 1, x 2 + x 1, x 2 + x). Nejprve si spočítáme
Více0.1 Úvod do lineární algebry
Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Lineární rovnice o 2 neznámých Definice 011 Lineární rovnice o dvou neznámých x, y je rovnice, která může být vyjádřena ve tvaru ax + by = c, kde
VíceLineární algebra : Násobení matic a inverzní matice
Lineární algebra : Násobení matic a inverzní matice (8. přednáška) František Štampach, Karel Klouda frantisek.stampach@fit.cvut.cz, karel.klouda@fit.cvut.cz Katedra aplikované matematiky Fakulta informačních
VíceVektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice
Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u
VíceTeorie her a ekonomické rozhodování. 2. Maticové hry
Teorie her a ekonomické rozhodování 2. Maticové hry 2.1 Maticová hra Teorie her = ekonomická vědní disciplína, která se zabývá studiem konfliktních situací pomocí matematických modelů Hra v normálním tvaru
VíceÚvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská
Neuronové sítě-delta učení Filip Habr České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská 30. března 2009 Obsah prezentace Obsah prezentace Delta učení 1 Teorie k delta učení 2
Více