๐ Generative Model โ
- Generative model์ ๊ฒฝ์ฐ์๋ ๋จ์ํ ๋ง๋ค์ด ๋ด๋๊ฒ๋ณด๋ค ๋ง์ ๊ฒ์ ์๋ฏธํ๋ค.
-> Generative(์ํ๋ง, ์์ฑ, sampling)
-> Density estimation(์ด์ ๊ฐ์ง, anolmaly detection)
=> ํด๋น ๋๊ฐ์ง๋ฅผ ๋ค ํ ์ ์๋ค๋ฉด explicit model์ด๋ผ๊ณ ๋ถ๋ฆผ
-> unsupervised representation learning(feature learning)
๐ฅ How can we represent p(x)?
- Bernoulli distribution: (biased) coin flip
-> ํ๋์ ์๊ฐ ์์ผ๋ฉด ๋จ - ๋์ ์๋ฉด ํ๋ฅ = p <-> ๋ท๋ฉด ํ๋ฅ = 1 - p
- Categorical distribution: (biased) m-sided dice
-> 6์ฃผ์ฌ์์ ๊ฒฝ์ฐ 5๊ฐ์ ์ซ์๊ฐ ํ์(sum = 1)
- ํ์ง๋ง ํ์ค์์ ํ๋์ ์ด๋ฏธ์ง๋ฅผ ํํํ๊ธฐ ์ํด์๋ ์ด๋ง์ด๋งํ๊ฒ ๋ง์ parameter๊ฐ ํ์ํ๊ฒ ๋๋๋ฐ ์ด๋ป๊ฒ ํ๋ฉด ์ค์ผ ์ ์์๊น?
-> ๋ง์ฝ ๋ชจ๋ ๋ณ์๊ฐ ๋ ๋ฆฝ์ ์ด๋ผ๋ฉด n๊ฐ์ ํ๋ผ๋ฏธํฐ๊ฐ ํ์ํ๊ฒ ๋๋๋ฐ, ์ด ๊ฒฝ์ฐ ์ํ๋ ์ด๋ฏธ์ง๋ฅผ ์์ฑํ๊ฑฐ๋ ๋ณด์ฌ์ง ์ ์๋ค.
-> ๊ทธ๋ ๋ค๋ฉด ์ด๋ป๊ฒ ํด์ผํ ๊น? ์ค๊ฐ ์ ๋๋ฅผ ์ฐพ์๋ณด์!
=> Conditional Independence
-> Chain rule๊ณผ Bayes' rule, Conditional independence๋ฅผ ํ์ฉํ์ฌ ๋ง๋ค์ด ๋ผ ์ ์๋ค.
๐ฅ Auto-regressive model
- 28x28 binary pixels์ ๊ฐ์ง๊ณ ์๋ค๊ณ ๊ฐ์ ํด ๋ชฉํ๋ฅผ p(x) = p(x1,x2,...,x784)๋ฅผ ํ์ต์ํค๋ ๊ฒ.(x ∈{0,1}^784)
- chain rule์ ์ด์ฉํด ํํํ ์ ์๋ค.
- ์์๋ฅผ ๋ฉ๊ฒจ์ผ ํ๋ค - ์ด๋ป๊ฒ ๋ฉ๊ธฐ๋์ง์ ๋ฐ๋ผ ์ฑ๋ฅ, ๋ชจ๋ธ์ด ๋ฌ๋ผ์ง
- i-1๊น์ง์ ์ํฅ์ ๋ฐ๋ ๋ชจ๋ธ์ด๋ค.
๐ฅ NADE: Neural Autoregressive Density Estimator
- i ๋ฒ์งธ๋ฅผ ์์ ์์์ Dependentํ๊ฒ ๋ง๋๋ ๊ฒ.
-> Neural Network์ ์ ์ฅ์์๋ ์ ๋ ฅ๊ฐ์ ์ฐจ์(Weight)์ด ๊ณ์ ๋ฌ๋ผ์ง๊ฒ ๋จ.
- Explicit model: Generate๋ง ํ๋๊ฒ์ด ์๋๋ผ ํ๋ฅ ๋ ๊ตฌํจ.(P(xi | x1:i-1))
- Continuous์ผ ๊ฒฝ์ฐ, Gaussian์ mixture๋ฅผ ํ์ฉํ์ฌ ํด๊ฒฐํ ์ ์๋ค.
๐ฅ Pixel RNN
- auto-regressive model๋ก ordering์ ๋ฐ๋ผ ๋ค๋ฅธ ์๊ณ ๋ฆฌ์ฆ์ ์ฌ์ฉํ๋ค.(Row LSTM, Diagonal BiLSTM)
๐ Generative Model โ ก
๐ฅ Variational Auto-Encoder
- VI(Variational Inference): ๋ชฉํ๋ Posterior deistribution์ ์ต๊ณ ๋ก ์ ๋ง๋ variational distribution์ ์ต์ ํ ํ๋ ๊ฒ
*Posterior distribution: Pθ(z|x) z = latent vatiable
-> obsevation์ด ์ฃผ์ด์ก์ ๋, ๊ด์ฌ์๋ random variable์ ํ๋ฅ ๋ถํฌ
-> ์ฌ์ค์ ๊ตฌํ๋ ๊ฒ์ด ๊ฑฐ์ ๋ถ๊ฐ๋ฅ ์ ๊ฐ๊น์ธ ๋๊ฐ ๋ง์
-> P(x|z)๋ ๋๊ฒ likelihood๋ผ๊ณ ๋ถ๋ฆผ
*Variational distribution(qΦ(z|x))
-> Posterior์ ์ฐพ๋ ๊ฐ์ฅ ๊ทผ์ฌํ ๊ฐ์ ๋ง๋ค์ด ๋ด๋ ๋ถํฌ
-> Loss function์ ์ต์ํํ๋ ๊ฒ์ด ํ์(KL divergence์ True posterior์ฌ์ด์์)
- ํ์ง๋ง targer์ ๋ชจ๋ฅด๋๋ฐ ์ด๋ป๊ฒ ์ฐพ์ ๋๊ฐ ๊ฒ์ธ๊ฐ?
-> ELBO trick์ ์ฌ์ฉํด๋ณด์.
- ELBO๋ฅผ ๊ฐ์ ธ์ ๋ณด๊ฒ๋๋ฉด Reconstruction Term๊ณผ Prior Fitting Term์ผ๋ก ๋๋์ด ์ง๋ค.
-> Reconstruction Term: ์๋ฐํ ์ใ ฃ๋ก๋ inexplicit model์ผ๋ก auto-encoder์ loss function์ ๋งํจ.
-> Prior Fitting Term: ์ ๋ค์ ๋ถํฌ๊ฐ ์ฌ์ ๋ถํฌ์ ๋น์ทํ๊ฒ ๋ง๋๋ ๊ฒ.
- ํ๊ณ์
-> ๊ฐ๋ฅ๋ ๊ณ์ฐ์ด ์ด๋ ค์(Intractable model)
-> Prior Fitting Term์ ๋ฐ๋์ ๋ฏธ๋ถ(Differentiable)๊ฐ๋ฅ ํด์ผํ๋ค. -> diverse latent prior distribuions๋ฅผ ์ฌ์ฉํ๊ธฐ ์ด๋ ค์
-> ๋๋ถ๋ถ์ ๊ฒฝ์ฐ isotropic gaussian์ ์ฌ์ฉํจ(Prior distribution์ผ๋ก)
- Adversarial Auto-encoder์ด ๊ฐ๋ฐ๋จ - variational Auto-encoder์ ์๋ prior fitting term์ GAN objective๋ก ๋ณ๊ฒฝ
๐ฅ GAN(Generative Adversarial Network)
- Generator์ Distriminator๊ฐ ๊ฐ์ด ์ฑ๋ฅ์ ํฅ์์ํด์ผ๋ก ํ์ต์ด ๋จ(min/max๊ฒ์)
- VAE์ ๋น๊ตํ๋ฉด ์๋ ๊ทธ๋ฆผ๊ณผ ๊ฐ๋ค.
- Discriminator์ ๊ฒฝ์ฐ ์ต์ ํ๋ ๋ค์ ์๊ณผ ๊ฐ๋ค.
- Generator์ ๊ฒฝ์ฐ ์ต์ ํ๋ ๋ค์ ์๊ณผ ๊ฐ๋ค.
๐ฅ DCGAN: DNN์ ์ฌ์ฉํ๋ ๊ฒ์ด ์ข๊ณ Leaky-ReLU๋ฅผ ์ฌ์ฉํ๋ฉด ์ข๋ค์ ๊ฐ์ ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ฅผ ๊ฐ์ ธ์ด
๐ฅ Info-GAN: GAN์ ํน์ ๋ชจ๋์ ์ง์คํ๊ฒ ํด์ค.
๐ฅ Text2Image: ๋ฌธ์๊ฐ ์ฃผ์ด์ง๋ฉด ์ด๋ฏธ์ง๋ฅผ ์์ฑ
๐ฅ Puzzle-GAN: ์ด๋ฏธ์ง์ ์ผ๋ถ๋ถ(Sub patch)๋ฅผ ๊ฐ์ง๊ณ ๋ณต์ํ๋ GAN
๐ฅ Cycle-GAN: ์ด๋ฏธ์ง ์ฌ์ด์ ๋๋ฉ์ธ์ ๋ฐ๊ฟ์ค. Cycle-consistency loss - GAN๊ตฌ์กฐ๊ฐ 2๊ฐ
๐ฅ Star-GAN: ๋ชจ๋๋ฅผ ์ ํด์ค ์ ์์
๐ฅ Progressive-GAN: ๊ณ ์ฐจ์์ ์ด๋ฏธ์ง๋ฅผ ๋ง๋ค์ด ๋, 4x4๋ถํฐ 1024x1024๊น์ง ๋๋ ค๊ฐ๋ฉฐ trainingํจ
'์ธ๊ณต์ง๋ฅ' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Day 17] NLP - RNN & LSTM & GRU (0) | 2021.02.16 |
---|---|
[Day 16] NLP - Bag-of-Words & Words Embedding (0) | 2021.02.16 |
[Day 14] Math for AI - RNN (0) | 2021.02.04 |
[Day 13] DL Basic - CNN & Computer Vision Applications (0) | 2021.02.03 |
[Day 12] Math for AI - Convolution (0) | 2021.02.02 |