백본 모델(back-born Model) 정리(Feat. CNN기반,자연어 처리, 트랜스포머(Transformer) etc)
* 컴퓨터 비전과 딥러닝 P524 中....자연어 처리 백본 모델: BERT, GPT라는 자연어 처리(NLP) 백본 모델이 있다. -> 이를 이용하여 [언어 번역],[챗봇],[질의응답],[문서 요약] 등을 포함해 수십 가지 응용 문제에 성공적으로 전이 학습하다. 비전 트랜스포머 백본 모델 : SWIN Transformer (SWIN Transformer는 분류, 검출, 추적 등에 두루 사용할 수 있는 백본 비전 트랜스포머를 만들기 위해 애초에 설계됨)* 부연 설명 : BERT, GPT 와 같은 [자연어 처리] 백본 모델과 달리 [비전]용 Transformer는 영상의 특성을 고려하여 설계해야 한다. 영상의 특성 : 영상을 구성하는 물체는 물체끼리 겹치거나 섞이고, 물체와 배경이 심하게 겹치거나 섞여 있는..
더보기
tf.image.extract_patches(imgaes,sizes,strides,rates,padding)
[컴퓨터 비전과 딥러닝 중 P513]sizes = [batch_size=1,row_size = 4,column_size = 4,num_channel=1]-> 패치를 추출하기 위한 슬라이딩 윈도우 크기 지정strides = [batch_stride=1,self.p_siz, self.p_siz,channel_stride=1]-> 슬라이딩 윈도우를 얼마만큼 움직일 것이냐! 이 예에서는 patch_size=4이므로, 4픽셀씩 슬라이등 윈도우를 이동시킴rate=[batch_dimension, height_rate, width_rate, channel_rate]첫 번째 숫자 (1): 배치 차원(batch dimension)에 대한 rate입니다. 보통 1로 설정됩니다.두 번째 숫자 (1): 이미지의 높이(heigh..
더보기