metody deep learning - wykład 5

21
Metody Deep Learning Wykład 5 http://arxiv.org/pdf/ 1502.01852.pdf

Upload: craftinity

Post on 10-Aug-2015

85 views

Category:

Data & Analytics


3 download

TRANSCRIPT

Page 1: Metody Deep Learning - Wykład 5

Metody Deep LearningWykład 5

http://arxiv.org/pdf/1502.01852.pdf

Page 2: Metody Deep Learning - Wykład 5
Page 3: Metody Deep Learning - Wykład 5
Page 4: Metody Deep Learning - Wykład 5

Zaczynamy

Page 5: Metody Deep Learning - Wykład 5

Plan z tablicy

● przypomnienie RBMówo P(v, h), P(v|h), P(h|v)o uczenie - GDo CD-k

● teoria z Hugo● sparse● denoising● contractive● przykład: denoising + rekonstrukcja cyferek

Page 6: Metody Deep Learning - Wykład 5

● nieskierowany model probabilistyczny● dwie grupy binarnych zmiennych losowych

Restricted Boltzmann Machine

szmienne ukryte (hidden)

szmienne widoczne (visible)

Page 7: Metody Deep Learning - Wykład 5

RBM - joint probability● model z energią (model Boltzmanna)● zmienne o wartościach binarnych

Page 8: Metody Deep Learning - Wykład 5

Conditional independence - reminder

Page 9: Metody Deep Learning - Wykład 5

CI in RBM

Page 10: Metody Deep Learning - Wykład 5

inference

Page 11: Metody Deep Learning - Wykład 5

inference c.d

Page 12: Metody Deep Learning - Wykład 5

RBM learning- zaobserowany zbiór

danych

szukamy parametrów modelu tak aby było jak największe:

Page 13: Metody Deep Learning - Wykład 5

RBM learning c.d

- zaobserowany zbiór danych

W RBM każdy zaobserwowany wektor odpowiada zmiennym widocznym

do obliczenia nie bardzo

Page 14: Metody Deep Learning - Wykład 5

Wpierw łatwiejsza część gradientu

Contrastive Divergence

Page 15: Metody Deep Learning - Wykład 5

-Teoretycznie możemy rozważyć każde możliwe v

-Ilość możliwości jest rzędu

Contrastive Divergence c.d

jak wyznaczyć

Page 16: Metody Deep Learning - Wykład 5

- Ponieważ gradient będziemy liczyć wielokrotnie zamiast za każdym razem obliczać wartość przeciętną możemy wylosować v zaszyte w RBM’ie

Samplowanie Gibbsa

- Postępując tak wielokrotnie będziemy przybliżać się do minimalizacji

- Obserwację losową RBM’a nazywamy fantazją sieci

Page 17: Metody Deep Learning - Wykład 5

Cel - wylosować próbkę z rozkładu wielowymiarowego P(x, y)Sposób - generujemy x z rozkładu P(x | y) i y z rozkładu P(y | x)Algorytm:

Samplowanie Gibbsa

Kontynuuj aż rozkłady prawdopodobieństw będą stacjonarne

Page 18: Metody Deep Learning - Wykład 5

Samplowanie Gibbsa w RBM’ie

Page 19: Metody Deep Learning - Wykład 5

- Zacznij próbkowanie od przykładu treningowego

- wykonaj jedynie kilkanaście kroków- pomimo poważnej korelacji pomiędzy tak

otrzymaną fantazją a przykładem uczącym otrzymujemy zaskakująco dobry gradient

- Czasami wystarcza 1 krok!

Propozycja Hintona

Page 20: Metody Deep Learning - Wykład 5

Model uczymy metodąstochastycznego spadku gradientu

Uczenie

Page 21: Metody Deep Learning - Wykład 5