Neurnov siete pre potaov videnie k r 2019
- Slides: 104
Neurónové siete pre počítačové videnie šk. r. 2019 -20 Trénovanie neurónových sietí II Doc. RNDr. Milan Ftáčnik, CSc. RNDr. Zuzana Černeková, Ph. D.
Štruktúra dnešnej prednášky �Zlepšenie trénovacej chyby: �Algoritmy optimalizácie �Schémy na nastavenie kroku učenia �Zlepšenie testovacej chyby: �Regularizácia �Výber hyperparametrov Neurónové siete pre počítačové videnie 2019 -20 2
Opakovanie �Aktivačné funkcie Neurónové siete pre počítačové videnie 2019 -20 3
Opakovanie 2 �Aktivačné funkcie Neurónové siete pre počítačové videnie 2019 -20 4
Opakovanie 3 �Inicializácia váh Inicializácie príliš malé: Aktivácie aj gradienty idú k 0 Žiadne učenie Inicializácie príliš veľké: Aktivácie sú saturované (tanh), gradienty 0, žiadne učenie Inicializácie akurát: Pekná distribúcia aktivácií vo všetkých vrstvách, učenie sa vyvíja pekne Neurónové siete pre počítačové videnie 2019 -20 5
Opakovanie 4 �Predspracovanie dát Neurónové siete pre počítačové videnie 2019 -20 6
Opakovanie 5 (BN) � Neurónové siete pre počítačové videnie 2019 -20 7
Optimalizácia Neurónové siete pre počítačové videnie 2019 -20 8
Optimalizácia: problémy s SGD �Čo keď sa strata mení rýchlo v jednom smere a pomaly v druhom? Čo vtedy robí zostup gradientu? �Stratová funkcia má veľké podmienené číslo: pomer medzi najväčšou a najmenšou singulárnou hodnotou v matici Hessiánu je veľký 9 Neurónové siete pre počítačové videnie 2019 -20
Optimalizácia: problémy s SGD �Čo keď sa strata mení rýchlo v jednom smere a pomaly v druhom? Čo vtedy robí zostup gradientu? Veľmi pomalý progres cez plytký rozmer a cik-cak cez strmý rozmer. �Stratová funkcia má veľké podmienené číslo: pomer medzi najväčšou a najmenšou singulárnou hodnotou v matici Hessiánu je veľký 10 Neurónové siete pre počítačové videnie 2019 -20
Optimalizácia: problémy s SGD Čo keď stratová funkcia má lokálne minimá alebo sedlový bod? Neurónové siete pre počítačové videnie 2019 -20 11
Optimalizácia: problémy s SGD Čo keď stratová funkcia má lokálne minimá alebo sedlový bod? Nulový gradient, zostup gradientu sa zasekne Neurónové siete pre počítačové videnie 2019 -20 12
Optimalizácia: problémy s SGD Čo keď stratová funkcia má lokálne minimá alebo sedlový bod? Sedlové body sú častejšie vo vyšších rozmeroch Neurónové siete pre počítačové videnie 2019 -20 13
Optimalizácia: problémy s SGD Naše gradienty pochádzajú z minidávok a môžu byť zašumené! Neurónové siete pre počítačové videnie 2019 -20 14
SGD + Momentum � Neurónové siete pre počítačové videnie 2019 -20 15
SGD + Momentum SGD+Momentum Ukážka SGD+Momentum v dvoch formuláciách, ale tie sú ekvivalentné - dávajú rovnakú postupnosť x Neurónové siete pre počítačové videnie 2019 -20 16
SGD + Momentum Neurónové siete pre počítačové videnie 2019 -20 17
Nesterov momentum Aktualizácia momentu Nesterov momentum „Pozerá“, kam nás by nás zo. Kombinuje gradient v danom brala rýchlosť, tam vypočíta bode s rýchlosťou na získanie gradient a spojí to s rýchlosťou kroku na aktualizáciu váh na výpočet smeru aktualizácie 18 Neurónové siete pre počítačové videnie 2019 -20
Nesterov momentum „Pozerá“, kam nás by nás zobrala rýchlosť, tam vypočíta gradient a spojí to s rýchlosťou na výpočet smeru aktualizácie 19 Neurónové siete pre počítačové videnie 2019 -20
Nesterov momentum � Neurónové siete pre počítačové videnie 2019 -20 20
Nesterov momentum � � Neurónové siete pre počítačové videnie 2019 -20 21
Nesterov momentum � � Neurónové siete pre počítačové videnie 2019 -20 22
Nesterov momentum Neurónové siete pre počítačové videnie 2019 -20 23
Ada. Grad Pridáva škálovanie gradientu po zložkách založené na historických sumách štvorcov v každom rozmere „Kroky učenia podľa parametrov“ alebo “adaptívne kroky učenia“ Neurónové siete pre počítačové videnie 2019 -20 24
Ada. Grad Ot: Čo sa stane s Ada. Grad? Neurónové siete pre počítačové videnie 2019 -20 25
Ada. Grad Ot: Čo sa stane s veľkosťou kroku po dlhšom čase? Neurónové siete pre počítačové videnie 2019 -20 26
Ada. Grad Ot: Čo sa stane s veľkosťou kroku po Zníži sa na nulu dlhšom čase? Neurónové siete pre počítačové videnie 2019 -20 27
RMSProp: „presakujúci“ Ada. Grad RMSProp Neurónové siete pre počítačové videnie 2019 -20 28
RMSProp Neurónové siete pre počítačové videnie 2019 -20 29
Adam (takmer) Neurónové siete pre počítačové videnie 2019 -20 30
Adam (takmer) Momentum, Ada. Grad/RMSProp Niečo ako RMSProp + Momentum Ot: Čo sa stane v prvom časovom kroku? Neurónové siete pre počítačové videnie 2019 -20 31
Adam (plná forma) Momentum, Korekcia prahu, Ada. Grad/RMSProp Korekcia prahu preto, lebo odhad prvého a druhé momentu sa začína na nule Neurónové siete pre počítačové videnie 2019 -20 32
Adam (plná forma) Momentum, Korekcia prahu, Ada. Grad/RMSProp Korekcia prahu preto, lebo odhad prvého a druhé momentu sa začína na nule Adam s Beta 1 = 0, 9, Beta 2 = 0, 999 a krokom učenia 1 e-3 al. 5 e-4 je výborný štartovací bod pre mnoho modelov 33 Neurónové siete pre počítačové videnie 2019 -20
Adam Neurónové siete pre počítačové videnie 2019 -20 34
Krok učenia SGD, SGD+Momentum, Aga. Grad, RMSProp, Adam majú krok učenia ako hyperparameter Ot: Ktorý z týchto krokov učenia je najlepšie použiť? Neurónové siete pre počítačové videnie 2019 -20 35
Krok učenia SGD, SGD+Momentum, Aga. Grad, RMSProp, Adam majú krok učenia ako hyperparameter Ot: Ktorý z týchto krokov učenia je najlepšie použiť? Od: Všetky! Začnite s vysokým krokom a postupne ho znižujte Neurónové siete pre počítačové videnie 2019 -20 36
Znižovanie kroku učenia Krokové: Redukcia kroku učenia v pár fixovaných bodoch, napr. násobením 0, 1 po epoche 30, 60 a 90 Neurónové siete pre počítačové videnie 2019 -20 37
Znižovanie kroku učenia Krokové: Redukcia kroku učenia v pár fixovaných bodoch, napr. násobením 0, 1 po epoche 30, 60 a 90 Kosínusové: Neurónové siete pre počítačové videnie 2019 -20 38
Znižovanie kroku učenia Krokové: Redukcia kroku učenia v pár fixovaných bodoch, napr. násobením 0, 1 po epoche 30, 60 a 90 Kosínusové: Neurónové siete pre počítačové videnie 2019 -20 39
Znižovanie kroku učenia Krokové: Redukcia kroku učenia v pár fixovaných bodoch, napr. násobením 0, 1 po epoche 30, 60 a 90 Kosínusové: Lineárne: Neurónové siete pre počítačové videnie 2019 -20 40
Znižovanie kroku učenia Krokové: Redukcia kroku učenia v pár fixovaných bodoch, napr. násobením 0, 1 po epoche 30, 60 a 90 Kosínusové: Lineárne: Inverznou odmocnicnou: Neurónové siete pre počítačové videnie 2019 -20 41
Znižovanie kroku učenia Vysoký počiatočný krok učenia môže spôsobiť explóziu vo výške straty; lineárne zvyšovanie kroku z 0 až po cca 5. 000 iterácií tomu môže zabrániť Empirické pravidlo: Ak zvyšujete veľkosť dávky N krát, tak škálujte aj počiatočný krok učenia faktorom N Neurónové siete pre počítačové videnie 2019 -20 42
Optimalizácia prvého rádu 1) Použi gradient a vytvor lineárnu aproximáciu 2) Urob krok na minimalizáciu aproximácie Neurónové siete pre počítačové videnie 2019 -20 43
Optimalizácia druhého rádu 1) Použi gradient a Hessián na kvadratickú aproximáciu 2) Urob krok smerom k minimu aproximácie Neurónové siete pre počítačové videnie 2019 -20 44
Optimalizácia druhého rádu �Taylorov rozvoj druhého rádu �Pri riešení kritického bodu, dostaneme Newtonovu aktualizáciu parametrov: Ot: Prečo je to zlé pre hlboké učenie? Neurónové siete pre počítačové videnie 2019 -20 45
Optimalizácia druhého rádu �Taylorov rozvoj druhého rádu �Pri riešení kritického bodu, dostaneme Newtonovu aktualizáciu parametrov: Hessián má O(N^2) prvkov Invertovanie vezme O(N^3) N = až do stovky miliónov Ot: Prečo je to zlé pre hlboké učenie? Neurónové siete pre počítačové videnie 2019 -20 46
Optimalizácia druhého rádu �Kvázi-newtonovské metódy (najpopulárnejšia je BFGS): namiesto invertovania Hessiánu (O(N^3)), aproximuj v čase inverzný Hessián aktualizáciami stupňa 1 (O(N^2) každá) �L-BFGS (s obmedzenou pamäťou) Nevytvára/neukladá celý inverzný Hessián Neurónové siete pre počítačové videnie 2019 -20 47
L-BFGS �Obyčajne pracuje veľmi dobre na celej dávke, v deterministickom móde – napr. ak máme jednu deterministickú f(x), tak L-BFGS bude pravdepodobne fungovať veľmi pekne �Neprenáša sa to až tak dobre na prípad minidávky – tam dáva zlé výsledky. Ako prispôsobiť metódy druhého rádu rozsiahlym, stochastickým situáciám, je stále predmetom výskumu Neurónové siete pre počítačové videnie 2019 -20 48
Praktické rady �Adam je veľmi dobrá prvotná voľba v mnohých prípadoch; funguje OK dokonca aj pri konštantnom kroku učenia �SGD+Momentum môže prekonať Adama, ale môže vyžadovať viac dolaďovania kroku učenia a schémy znižovania (použite kosínusovú schému, má veľmi málo hyperparametrov!) �Ak si môžete dovoliť aktualizáciu na celej dávke, skúste L-BFGS (obmedzte všetky zdroje šumu) Neurónové siete pre počítačové videnie 2019 -20 49
Čo po trénovacej chybe? Lepšie optimalizačné algo. Ale nás naozaj zaujíma ritmy znížia trénovaciu chyba na nových dátach – ako znížiť ten rozdiel? Neurónové siete pre počítačové videnie 2019 -20 50
Treba vždy včas ukončiť �Ukončite trénovanie modelu, keď sa presnosť na validačnej množine začne znižovať. �Alebo trénujte dlhšie, ale vždy si pamätajte parametre modelu, ktorý mal na validačnej množine najlepšie výsledky 51 Neurónové siete pre počítačové videnie 2019 -20
Skupiny modelov �Trénujte viacero nezávislých modelov �V čase testovania spriemerujte ich výsledky (vypočítajte priemery z predpovedaných rozdelení pravdepodobnosti a potom vyberte maximum) �Využite 2%-ný extra výkon Neurónové siete pre počítačové videnie 2019 -20 52
Skupiny modelov: tipy a triky �Namiesto trénovania viacerých modelov, použite viaceré záznamy jedného modelu počas trénovania! Neurónové siete pre počítačové videnie 2019 -20 53
Skupiny modelov: tipy a triky �Namiesto trénovania viacerých modelov, použite viaceré záznamy jedného modelu počas trénovania! S cyklickými schémami znižovania kroku to môže fungovať ešte lepšie 54 Neurónové siete pre počítačové videnie 2019 -20
Skupiny modelov: tipy a triky �Namiesto použitia aktuálneho vektora parametrov, použite priebežný priemer vektora parametrov a ten použite pri testovaní (Polyakovo priemerovanie) Neurónové siete pre počítačové videnie 2019 -20 55
Ako zlepšiť výkon jedného modelu? Regularizácia Neurónové siete pre počítačové videnie 2019 -20 56
Regularizácia: pridať term k strate Bežne sa používa: L 2 regularizácia L 1 regularizácia Elastická sieť (L 1 + L 2) Neurónové siete pre počítačové videnie 2019 -20 57
Regularizácia: dropout V každom doprednom chode, náhodne nastavte niektoré neuróny na nulu; pravdepodobnosť droupout je hyperparameter; obvyklá je 0, 5 Neurónové siete pre počítačové videnie 2019 -20 58
Regularizácia: dropout Príklad dopredného chodu siete s troma vrstvami s použitím dropoutu Neurónové siete pre počítačové videnie 2019 -20 59
Regularizácia: dropout Ako to vôbec môže byť dobrý nápad? Núti to sieť vytvoriť redundantnú reprezentáciu Je to prevencia pred prispôsobením si príznakov Neurónové siete pre počítačové videnie 2019 -20 60
Regularizácia: dropout � Neurónové siete pre počítačové videnie 2019 -20 61
Dropout: v čase testovania �Dropout robí náš výstup náhodným! �Chceme „spriemerovať“ túto náhodnosť v čase testovania �Ale tento integrál vyzerá zložito. . . Neurónové siete pre počítačové videnie 2019 -20 62
Dropout: v čase testovania �Chceme aproximovať ten integrál Uvažujme jeden neurón Neurónové siete pre počítačové videnie 2019 -20 63
Dropout: v čase testovania �Chceme aproximovať ten integrál Uvažujme jeden neurón V čase testovania máme: Neurónové siete pre počítačové videnie 2019 -20 64
Dropout: v čase testovania �Chceme aproximovať ten integrál Uvažujme jeden neurón V čase testovania máme: Počas trénovania máme: Neurónové siete pre počítačové videnie 2019 -20 65
Dropout: v čase testovania �Chceme aproximovať ten integrál Uvažujme jeden neurón V čase testovania máme: Počas trénovania máme: Počas testovania, násobte pravdepodobnosťou dropoutu Neurónové siete pre počítačové videnie 2019 -20 66
Dropout: v čase testovania �V čase testovania sú všetky neuróny vždy aktívne, preto musíme škálovať aktivácie, aby pre každý neurón platilo: výstup pri testovaní = očakávaný výstup pri trénovaní Neurónové siete pre počítačové videnie 2019 -20 67
Dropout: sumár Dropout v doprednom chode Škálovanie pri testovaní Neurónové siete pre počítačové videnie 2019 -20 68
Obvyklejší: „invertovaný“ dropout Testovací čas je nezmenený! Neurónové siete pre počítačové videnie 2019 -20 69
Regularizácia: spoločný vzor �Trénovanie �pridáva nejaký druh náhodnosti �Testovanie �priemeruje náhodnosť (niekedy aproximuje) Príklad: BN Trénovanie: Normalizuj pomocou štatistík z náhod- ných minibalíkov Testovanie: Použi fixné štatistiky na normalizáciu Neurónové siete pre počítačové videnie 2019 -20 70
Regularizácia: spoločný vzor �Trénovanie �pridáva nejaký druh náhodnosti �Testovanie �priemeruje náhodnosť (niekedy aproximuje) Príklad: BN Trénovanie: Normalizuj pomocou štatistík z náhodných minidávok Testovanie: Použi fixné štatistiky na normalizáciu Neurónové siete pre počítačové videnie 2019 -20 71
Regularizácia: Augmentácia dát Neurónové siete pre počítačové videnie 2019 -20 72
Regularizácia: Augmentácia dát Neurónové siete pre počítačové videnie 2019 -20 73
Augmentácia dát �Horizontálne otočenia Neurónové siete pre počítačové videnie 2019 -20 74
Augmentácia dát �Náhodné výseky a škály �Trénovanie (Res. Net): 1. Vyber náhodné L v rozsahu [256, 480] 2. Zmeň veľkosť obrazu, kratšia strana je L 3. Preškáluj náhodne časť Obrazu [224 x 224] Neurónové siete pre počítačové videnie 2019 -20 75
Augmentácia dát �Náhodné výseky a škály �Trénovanie (Res. Net): 1. Vyber náhodné L v rozsahu [256, 480] 2. Zmeň veľkosť obrazu, kratšia strana je L 3. Preškáluj náhodne časť obrazu [224 x 224] �Testovanie (Res. Net): �Spriemeruje fixnú množinu výsekov � 1. Zmeň veľkosť obraz na 5 škál: {224, 256, 384, 460, 640} � 2. Pre každú veľkosť použi 10 224 x 224 výsekov: 4 rohy + stred + otočenia Neurónové siete pre počítačové videnie 2019 -20 76
Augmentácia dát �Vibrácia farieb �Jednoducho: použite náhodný kontrast a jas Neurónové siete pre počítačové videnie 2019 -20 77
Augmentácia dát �Vibrácia farieb �Jednoducho: použite náhodný kontrast a jas �Trochu zložitejšie: 1. Požite PCA na všetky [R, G, B] pixle v trénovacej množine 2. Navzorkujte „posun farby“ pozdĺž smerov hlavných komponentov 3. Pridajte posun ku všetkým pixlom trénovacieho obrazu Neurónové siete pre počítačové videnie 2019 -20 78
Augmentácia dát �Buďte kreatívni pri Vašom probléme �Náhodná kombinácia: �Translácie �Rotácie �Strečingu �Šmýkania �Distorcia šošoviek, . . . (môžete sa vyblázniť) Neurónové siete pre počítačové videnie 2019 -20 79
Regularizácia: spoločný vzor �Trénovanie: Pridaj náhodný šum �Testovanie: Zníž šum na minimum �Príklady: Dropout BN Augmentácia dát Neurónové siete pre počítačové videnie 2019 -20 80
Regularizácia: Drop. Connect �Trénovanie: Zruš spojenia medzi neurónmi (w = 0) �Testovanie: Použi všetky spojenia �Príklady: Dropout BN Augmentácia dát Drop. Connect Neurónové siete pre počítačové videnie 2019 -20 81
Regularizácia: čiastkový pooling �Trénovanie: Použi náhodné poolovacie oblasti �Testovanie: Priemeruj predikcie z viacerých oblastí �Príklady: Dropout BN Augmentácia dát Drop. Connect Čiastkový max pooling Neurónové siete pre počítačové videnie 2019 -20 82
Regularizácia: stochastická hĺbka �Trénovanie: Preskoč niektoré vrstvy v sieti �Testovanie: Použi všetky vrstvy �Príklady: Dropout BN Augmentácia dát Drop. Connect Čiastkový max pooling Stochastická hĺbka Neurónové siete pre počítačové videnie 2019 -20 83
Regularizácia: výsek �Trénovanie: Pridaj náhodný šum �Testovanie: Zníž šum na minimum �Príklady: Dropout BN Augmentácia dát Drop. Connect Čiastkový max pooling Stochastická hĺbka Výsek (Cutout) Funguje veľmi dobre pre malé databázy ako CIFAR 10, menej pre veľké ako Image. Net Neurónové siete pre počítačové videnie 2019 -20 84
Regularizácia: zmiešanie �Trénovanie: Pridaj náhodný šum �Testovanie: Zníž šum na minimum �Príklady: Dropout BN Augmentácia dát Drop. Connect Čiastkový max pooling Stochastická hĺbka Výsek (Cutout) Zmiešanie (Mixup) Neurónové siete pre počítačové videnie 2019 -20 85
Regularizácia �Trénovanie: Pridaj náhodný šum �Testovanie: Zníž šum na minimum �Príklady: Dropout BN Augmentácia dát Drop. Connect Čiastkový max pooling Stochastická hĺbka Výsek (Cutout) Zmiešanie (Mixup) - Zvažujte dropout pre veľké plne prepojené vrstvy - Normalizácia dávky a augmentácia dát je skoro vždy dobrý nápad - Vyskúšajte Výsek a Zmiešanie obrazov najmä pre malé datasety 86 Neurónové siete pre počítačové videnie 2019 -20
Výber hyperparametrov �Krok 1: Over počiatočnú stratu �Vypni znižovanie váh, over počiatočnú stratu pri inicializácii, napr. log(C) pre softmax s C triedami Neurónové siete pre počítačové videnie 2019 -20 87
Výber hyperparametrov �Krok 1: Over počiatočnú stratu �Krok 2: Preuč sieť na malej vzorke �Snaž sa dosiahnuť 100%-nú úspešnosť na malej vzorke trénovacích dát (cca 5 -10 minidávok); hraj sa s architektúrou, krokom učenia, inicializáciou váh �Strata nejde dole? Krok je primalý, zlá inicializácia �Strata explodovala do Inf? Krok je priveľký, zlá inicializácia Neurónové siete pre počítačové videnie 2019 -20 88
Výber hyperparametrov �Krok 1: Over počiatočnú stratu �Krok 2: Preuč sieť na malej vzorke �Krok 3: Nájdi krok učenia, ktorý znižuje stratu �Použi architektúru z predošlého kroku, na všetkých trénovacích dátach, zapni malé znižovanie váh, nájdi krok učenia, ktorý výrazne zníži stratu za cca 100 iterácií �Skús dobré kroky učenia: 1 e-1, 1 e-2, 1 e-3, 1 e-4 Neurónové siete pre počítačové videnie 2019 -20 89
Výber hyperparametrov �Krok 1: Over počiatočnú stratu �Krok 2: Preuč sieť na malej vzorke �Krok 3: Nájdi krok učenia, ktorý znižuje stratu �Krok 4: Zhrubni mriežku, trénuj cca 1 -5 epoch �Vyber niekoľko hodnôt kroku učenia a znižovania váh, ktoré fungovali v kroku 3, trénuje niekoľko modelov pre cca 1 -5 epoch �Skús dobré hodnoty na znižovanie váh: 1 e-4, 1 e-5, 0 Neurónové siete pre počítačové videnie 2019 -20 90
Výber hyperparametrov �Krok 1: Over počiatočnú stratu �Krok 2: Preuč sieť na malej vzorke �Krok 3: Nájdi krok učenia, ktorý znižuje stratu �Krok 4: Zhrubni mriežku, trénuj cca 1 -5 epoch �Krok 5: Zjemni mriežku, trénuj dlhšie �Zober najlepšie modely z kroku 4, trénuj ich dlhšie (cca 10 -20 epoch) bez znižovania kroku učenia Neurónové siete pre počítačové videnie 2019 -20 91
Výber hyperparametrov �Krok 1: Over počiatočnú stratu �Krok 2: Preuč sieť na malej vzorke �Krok 3: Nájdi krok učenia, ktorý znižuje stratu �Krok 4: Zhrubni mriežku, trénuj cca 1 -5 epoch �Krok 5: Zjemni mriežku, trénuj dlhšie �Krok 6: Pozri sa na krivky straty Neurónové siete pre počítačové videnie 2019 -20 92
Krivky straty Straty môžu byť zašumené, preto použite bodový diagram, a tiež zobrazujte priebežný priemer, aby ste trendy videli lepšie Neurónové siete pre počítačové videnie 2019 -20 93
Krivky straty Neurónové siete pre počítačové videnie 2019 -20 94
Krivky straty Neurónové siete pre počítačové videnie 2019 -20 95
Krivky straty Neurónové siete pre počítačové videnie 2019 -20 96
Krivky straty Neurónové siete pre počítačové videnie 2019 -20 97
Krivky straty Neurónové siete pre počítačové videnie 2019 -20 98
Krivky straty Neurónové siete pre počítačové videnie 2019 -20 99
Výber hyperparametrov �Krok 1: Over počiatočnú stratu �Krok 2: Preuč sieť na malej vzorke �Krok 3: Nájdi krok učenia, ktorý znižuje stratu �Krok 4: Zhrubni mriežku, trénuj cca 1 -5 epoch �Krok 5: Zjemni mriežku, trénuj dlhšie �Krok 6: Pozri sa na krivky straty �Krok 7: Choď na krok 5 Neurónové siete pre počítačové videnie 2019 -20 100
Výber hyperparametrov �Hyperparametre, s ktorými sa dá hrať: �Architektúra siete �Krok učenia, schémy jeho znižovania, spôsob aktualizácie �Regularizácia (Sila L 2/Dropout) Neurónové siete pre počítačové videnie 2019 -20 101
Náhodné vs. mriežkové hľadanie Neurónové siete pre počítačové videnie 2019 -20 102
Pomer veľkosti/aktualizácie váh �Pomer medzi aktualizáciou a veľkosťou váh: cca 0, 0002/0, 02 = 0, 01 (zhruba dobre), snažíme sa to držať okolo 0, 001 103 Neurónové siete pre počítačové videnie 2019 -20
Zhrnutie �Zlepšite svoju trénovaciu chybu: �Optimalizačné postupy �Schémy na znižovanie kroku učenia �Zlepšite svoju testovaciu chybu: �Regularizácia �Výber hyperparametrov Neurónové siete pre počítačové videnie 2019 -20 104
- Rosolovita hmota na 3
- Diagnostika potaov toshiba
- Diagnostika potaov hp
- Osnowa dokumentu
- Act score range
- Autoestima sobrevalorada
- Da questo sapranno che siete miei discepoli
- Colinas de roma
- Pecados capitales y sus virtudes contrarias
- Pocitacove siete zakladne pojmy
- Rez kocky rovinou
- Siete espejos esenios
- Siete colinas
- Las siete iglesias del apocalipsis en la actualidad
- Significado de las 7 iglesias del apocalipsis
- Yo soy el alfa y el omega
- Náčrt kocky
- Las siete dimensiones
- Contraste simultaneo itten
- Musa de la poesía épica y la elocuencia
- Las siete menos cuarto
- Luna es un sustantivo propio
- Fotos de las 7 iglesias del apocalipsis
- Jezabel significado
- Que hora es ocho menos cuarto
- Servianos
- Los truenos son la ira de dios
- Esquema sobre los sacramentos
- Siete profetisas mujeres
- Engradece
- Conclusión de las 7 iglesias del apocalipsis
- Inject.7
- Corona de los siete dolores
- Tn-c
- Un hotel va a hospedar a siete estudiantes
- Tea de las siete virtudes
- Falta de temor
- La monja gitana simbolos
- El cuento de blancanieves y los siete enanitos
- Los 7 pecados capitales gula
- Los 7 años de tribulacion
- Conclusion de las 7 maravillas del mundo moderno
- Apocalipsis 1
- How to say 4:20 in spanish
- Lo maggior corno
- Corona de los siete dolores
- Las siete peticiones
- Uno dos tres cuatro cinco
- Periodo pré homerico
- Pre-columbian empires
- Data pretreatment
- Fish pond management practices
- Efsweb
- Grandmother post reading
- Mesenteric lymph nodes
- Ndis sil quote template
- Induction preheating furnace
- Cost of redeemable debt formula
- Purelab chorus 2
- Kon su kie pre
- Con 360 quiz
- Perch external anatomy
- Preap magnetism 1
- Key benefit pemberian customer service
- The giver introduction activities
- Formula do debito cardiaco
- Silogisme
- Pre planning phase
- What is cultural incapacity
- Eeo pre award clearance
- Spanish architecture in the philippines
- Pre registro ope
- Post loss objectives
- Pre reproductive age
- Pre image
- Jaundice
- Ahlr algoritme
- Preencounter
- Pre project activities
- Closing a conversation
- Honours college leiden
- Pre and post modification
- Objavitel radioaktivity
- Pre ap classes vs regular classes
- Mira gorris
- Kompenzačné pomôcky pre telesne postihnutých
- Pre-embryonic stage
- Usaa pre approval home loan
- Customer experience strategy canvas
- Ivvp
- São jogos pré-desportivos
- Juegos predeportivos basquetbol
- 450000/12
- Supremecourt.gove
- Coordinate indexing
- Pre gps wayfinding aid
- Pre chewed charlie's
- Writing phase
- Mapa slovenska pre 4. ročník
- Conductometric titration pre lab answers
- Disegni quasi sperimentali
- Nursing english for pre-professionals
- Preganglionic parasympathetic fibres
- Pré consciente
- Ucl transition mentor