06-24 Live Session
CS & Calculus background
Domain Generalization
- The idea of Domain Generalization is to learn from one or multiple training domains, to extract a domain-agnostic model which can be applied to an unseen domain.
Self-Supervised-Learning
- Self-Supervised Learning is proposed for utilizing unlabeled data with the success of supervised learning. Producing a dataset with good labels is expensive, while unlabeled data is being generated all the time. The motivation of Self-Supervised Learning is to make use of the large amount of unlabeled data. The main idea of Self-Supervised Learning is to generate the labels from unlabeled data, according to the structure or characteristics of the data itself, and then train on this unsupervised data in a supervised manner. Self-Supervised Learning is wildly used in representation learning to make a model learn the latent features of the data. This technique is often employed in computer vision, video processing and robot control.
- https://hoya012.github.io/blog/Self-Supervised-Learning-Overview/
- https://paperswithcode.com/task/self-supervised-learning
ํ๋ ฌ์ ๊ณฑ์ linear transform.
bias๊ฐ ๋ค์ด๊ฐ๋ฉด ํ์ .
๋น์ ํ(activation function)์ผ๋ก warp
sgd๋ lr์ ๋ฏผ๊ฐํ๋ค.
Q & A
๋ํ ๋ชจ๋ธ์ ์ฉ๋์ด ํด๋ ๋ฐ์ดํฐ์ ์์ ๋ ๋ง์ด ์์งํ๋ฉด ์ผ๋ฐํ ๋ฅ๋ ฅ์ด ํฅ์๋๋ค๊ฐ ์ ์ดํด๊ฐ ๋์ง ์์ต๋๋ค. ์ ๋ฐ์ดํฐ์ ๊ฐ์๊ฐ ๋ง์ผ๋ฉด 12์ฐจ์ ๋ชจ๋ธ์ด 6์ฐจ์ฒ๋ผ ๋ณด์ด๋์ง ์ ์ดํด๊ฐ ์๋ฉ๋๋คใ ใ
- ๋งค๋ํด๋ ๊ฐ์
- ์ฐ๋ฆฌ๊ฐ ์๊ฐ ํ๋ ๋ฐ์ดํฐ์ ํจํด์ ์๊ฐ๋ณด๋ค ์ฌํํ๋ค.(์ ์๋ฏธํ ๊ฒ์ ์๊ฐ๋ณด๋ค ์ฌํํ๋ค)
ํ๋ผ๋ฏธํฐ๊ฐ ๋ง๋ค.
- ํํ๋ฅ๋ ฅ์ด ์ข์์ง.
- ์์ ๋๊ฐ ๋์์ง์๋ก ํํํ ์ ์๋ ๋ฅ๋ ฅ์ด ์ข์์ง.
๊ณต๊ฐ์ ์ ํ๋ ๋ถ๋ถ์ ๋ณด๋ฉด ๋์นญ์ด ๋๋ ์ ์ ๊ธฐ์ค์ผ๋ก๋ง ์ ๋๊ฑฐ ๊ฐ์๋ฐ, ์ ํ๋๋ ํญ์ ๊ทธ๋ฐ์์ผ๋ก๋ง ์ ํ๊ฒ ๋๋๊ฑด๊ฐ์?
- ์ด์ํ ๋ก ์ฑ ์์ ๊ทน๋จ์ ์ผ๋ก ๋์จ๊ฒ์.
- Relu๋ฅผ ์ผ์๋ ๊ทธ๋ฌ์.
- ๋น์ทํ๊ฒ๊ณผ ๋ค๋ฅธ๊ฒ์ ๊ตฌ๋ถ์ ํฌ๊ฒํ๊ธฐ ์ํจ.
๊ณ๋จํจ์๋ ํ์ฑํจ์ ์๋๊น์โฆ? ์์คํจ์๋ (o-t) L2 or L1 or โฆ๋ก scalar๊ฐ์ผ๋ก ์๊ณ ์์ต๋๋ค.
- ๊ณ๋จํจ์๋ ํ์ฑํจ์
- ์์คํจ์๋ scalar๊ฐ.(๋ฒกํฐ๋ก ๋์์ ๊ฒฝ์ฐ 1์ฐจ์, 2์ฐจ์, ์ด๋ ์ฐจ์์ผ๋ก ๊ธฐ์ค์?)
ํผ์ณ๋งต์ด ์ฌ๋ฌ๊ฐ์ด๋ฉด, L์ธต์ด ๋ณ๋ ฌ๋ก ์ฌ๋ฌ๊ฐ ์๋ค๊ณ ๋ณด๋ฉด ๋๋์?? ์ธต์ ๋ ธ๋๋ค์ด ํผ์ณ๋งต์ ๊ฐ๊ฐ์ ์์์ด๊ณ ํ ์ธต ์์ฒด๊ฐ ํผ์ณ๋งต 1๊ฐ๋ผ๊ณ ์ดํดํ๊ณ ์๋๋ฐ ์ด๊ฒ์ด ๋ง๋์ง ๊ถ๊ธํฉ๋๋ค.
- ํผ์ณ๋งต์ cnn ํํฐ์์ ๋์จ ๊ฒ.
- ๋ ์ด์ด ์ธต์ ํตํด ๋์จ ์ฌ๋ฌ ํผ์ณ๋งต์ด๋ผ๊ณ ํด๋ ํ๋์ ๋ฐ์ดํฐ๋ก ์ดํด.
์ ํ๋์์ ํ๋ฅ ์ ๊ธฐ์ด๋ถํฐ ๊ณต๋ถํ๊ณ ์ถ์๋ฐ, ์ถ์ฒํ์๋ ์ฑ ์ด๋ ๊ฐ์๊ฐ ์์ผ์ ๊ฐ์? ํ๊ตญ์ด๋ก ๋์ด์์ผ๋ฉด ์ข๊ฒ ์ต๋๋คโฆ
- ๊ธฐ๋ณธ์ ์ธ ๊ฐ๋ ?
- ๋ฅ๋ฌ๋์ rank๋ ๋ณ๋ก ํ์ํ์ง ์์..
- ๊ทธ๋๊ทธ๋ ๊ตฌ๊ธ๋ง.
๋จ์ธตํผ์ ํธ๋ก ์์์ b ๋ ์๊ณ๊ฐ์ ์ญํ ์ ํ๋ค๊ณ ๊ฐ์์์ ๋ค์์ต๋๋ค. ๊ทธ๋ ๋ค๋ฉด ๋ค์ธต ํผ์ ํธ๋ก , deep learning ์์์ ๊ฐ๊ฐ์ b1, b2 ๋ฑ.. ์ ๊ฐ๋ค๋ ๊ฐ ํผ์ ํธ๋ก ์์์ ์๊ณ๊ฐ ์ญํ ์ ์ํํ๋ ๊ฒ์ธ๊ฐ์??
- b๊ฐ์ ์๊ณ๊ฐ์ ๋ง์. ์ง๊ธ์ ์๊ณ๊ฐ์ ๊ธฐ์ค์ 0์ผ๋ก ๋ง์ถฐ๋๊ณ bias term์ผ๋ก ๋บ์.
- ์์ฆ์ ๋์ค๋ ์ ๊ฒฝ๋ง์ activation function์ ๊ธฐ์ค์ ์ 0์. ์น์ฐ์ง๊ฑธ 0์ผ๋ก ์ฎ๊ฒจ๋๊ธฐ ์ํด bias term์ ํ๋ ๋ ์ค.
ReLU ํจ์๋ฅผ ์ด์ฉํด์ ๋น์ ํ ๊ณก์ ํจ์๋ฅผ ๊ทผ์ฌํ ์ ์๋ ๊ทผ๊ฑฐ๊ฐ ๋ญ์ง ์๊ณ ์ถ์ต๋๋ค
- ์ด๋ก ์ ์ธ ๋ถ๋ถ
์ฐจ์๋ ๋คํญ์์ ๋ชจ๋ธ์ ์ฐ๋ ๊ฒฝ์ฐ์ ์ฐจ์๊ฐ ๋ง์์ง๋ฉด ๋ชจ๋ธ์ ํ๋ผ๋ฏธํฐ๊ฐ ๋ง์์ง๋ ๊ฒ.
nips, cvpr ๋ ผ๋ฌธ์ ์งํํด๋ณด๋ ๊ฒ๋..?
Leave a comment