왼쪽 위의 그림을 보면 input 값으로 이미지가 3개의 노드를 거쳐 (R,G,B)에 대한 출력값을 가지고 있다.
그러나 각각의 R,G,B의 분표를 살펴 보면, 각 채널 간 분포도 형태의 차이가 많이 나는 것을 알 수가 있다.
BN(Batch Normalization)을 거쳐, 각 채널의 분포를 최대한 가운대로 겹치게 하게 되면,
왼쪽 아래의 그림에서도 보듯이 빠른 시간에 높은 학습율을 달성하게 되는 결과가 발생
(Covariance(공분산) : 두 변수의 관계를 나타내는 양)
(위 설명은 아래 유튜브의 13:50에 나옴)
https://www.youtube.com/watch?v=3oFR7ajzAZs&t=390s
'딥러닝(Deep Learning) > 컴퓨터 비전' 카테고리의 다른 글
categorical_crossentropy VS sparse_categorical_crossentropy (0) | 2024.04.17 |
---|---|
Inception,Xception Model (0) | 2024.04.16 |
padding,stride,pooling의 개념(Feat. Same Padding, Valid Padding) (0) | 2024.04.13 |
딥러닝(비전) 관련 survey 논문 목록 (0) | 2024.03.05 |
정규화의 두 개의 얼굴(Feat Normalization, Regularization) (1) | 2024.02.28 |