본문 바로가기

분류 전체보기

Batch Normalization(Feat. 배치 정규화, U-Net, Inception) 왼쪽 위의 그림을 보면 input 값으로 이미지가 3개의 노드를 거쳐 (R,G,B)에 대한 출력값을 가지고 있다. 그러나 각각의 R,G,B의 분표를 살펴 보면, 각 채널 간 분포도 형태의 차이가 많이 나는 것을 알 수가 있다. BN(Batch Normalization)을 거쳐, 각 채널의 분포를 최대한 가운대로 겹치게 하게 되면, 왼쪽 아래의 그림에서도 보듯이 빠른 시간에 높은 학습율을 달성하게 되는 결과가 발생 (Covariance(공분산) : 두 변수의 관계를 나타내는 양) (위 설명은 아래 유튜브의 13:50에 나옴) https://www.youtube.com/watch?v=3oFR7ajzAZs&t=390s 더보기
padding,stride,pooling의 개념(Feat. Same Padding, Valid Padding) 패딩(Padding) : 입력 배열의 주위를 가상의 원소로 채우는 작업. 패딩(Padding)의 목적 : 입력 맵과 출력 맵의 크기를 동일하게 해주기 위함 패딩(Padding)의 종류 : 1] Same Padding, 2] Valid Padding Same Padding : 입력 맵과 출력 맵의 크기를 동일하게 만들기 위해 입력 맵 주위에 0으로 패딩하는 것 Valid Padding : 패딩 없이 순수한 입력 맵 크기에서만 합성곱을 하여 특성 맵을 만드는 경우 Pooling의 Stride 값 : default 값은 Pooling 커널의 크기이다. 예를 들어 2x2 크기의 커널로 Pooling 작업을 한다면, stride 값은 2로 default 세팅이 된다. (위 설명은 매우 간략하다. 아래의 사이트에서.. 더보기
__getitem__()(Feat. 시퀀스(Sequence) 객체, 매핑(Mapping) 객체) 파이썬에서 __getitem() 메서드의 역할을 알기 전에 먼저, Sequence 객체와 Mapping 객체가 무엇인지 알아야 한다. Sequence 객체 -> [여러 요소(element)]로 이루어진 [순서 있는] 데이터 컬렉션을 나타냅니다. (쉽게 생각을 하면, INDEX로 접근이 가능한 객체라고 생각하면 될 듯) (파이썬에서의 시퀀스 객체는 문자열, 리스트, 튜플 등이 있다) 문자열(String): 문자들의 순서 있는 집합입니다. 예를 들어 "hello"나 "python"과 같은 것들이 문자열 시퀀스의 예시입니다. 문자열은 개별 문자의 시퀀스로 이루어져 있습니다. 리스트(List): 값들의 순서 있는 목록입니다. [1, 2, 3]이나 ['apple', 'banana', 'orange']와 같은 것들.. 더보기
예지보전(Predictive Maintenance)-Version3(잔존 유효 수명-RUL, Remaining Useful Life) +++++++++++++++++++++++++++++++++STEP 0 : RUL에 대한 개념 설명++++++++++++++++++++++++++++++++++ (본격적인 예지보전(Predictive Maintenance) AI 개발 Process를 설명하기 이전, 잔존 유효 수명(RUL)에 대한 개념부터 설 명을 하겠다) 예지 보전의 최대 목표는 잔존 유효 수명인 RUL을 추정하는 것. 위 그래프에서 시간이 지남에 따라 기계 성능이 저하되는 것을 볼 수 있다. 파란색 점의 상태(Current condition)이 기계의 [현재 상태(정상 상태라고 가정)]라면 잔존 유효 수명은 이 시점부터 빨간색 점의 상태(Failure condition), 즉 [고장 상태]까지의 기간으로 계산됩니다. (설비의 종류 및.. 더보기
정밀도(Precision), 재현율(Recall) 정밀도(Precision) : [모델이 positive로 예측한 샘플 중]에서 실제로 positive인 샘플의 비율. -> 높은 정밀도는 false positive의 수가 적음을 의미하며, [모델]이 잘못된 예측을 하는 경우가 적다는 것을 나타냅니다. 재현율(Recall) : [실제 positive인 샘플 중]에서 모델이 올바르게 positive로 예측한 샘플의 비율. -> 높은 재현율은 false negative의 수가 적음을 의미하며, 모델이 실제 positive 샘플을 더 많이 식별한다는 것을 의미합니다. * 둘 다 [모델]이 Positive 클래스를 얼마나 잘 예측하는 지를 측정하는 기법이다. 다만 [분모]가 다를 뿐!!!! 더보기
딥러닝(비전) 관련 survey 논문 목록 딥러닝 기반 영상 분할을 전체적으로 다룬 survey 논문 : Minaee2021a딥러닝 기반 의미 분할 survey 논문 : Garcia-Garcia2017,딥러닝 기반 사례 분할 survey 논문 : Gu2022딥러닝 기반 총괄 분할 survey 논문 : Li2022b얼굴 검출 && 인식(Face Verification, Face Identification) survey 논문 : Ranjan2018얼굴 검출(Face Detection) survey 논문 : Minaee2021b얼굴 인식(Face Verification,.. 더보기
정규화의 두 개의 얼굴(Feat Normalization, Regularization) 딥러닝을 공부하다 보면 [정규화]라는 말을 정~~~~~~~~~말 많이 듣는다. 그러나 이 정규화는 사실 2가지의 전혀 다른 개념을 가지고 있다. 그 2가지란 바로 Normalization과 Regularization이다. Normalization, Regularization, 이 2가지 모두 한국어로 [정규화]라고 똑같이 번역이 된 탓에 [정규화]라는 말을 들으면 도대체 어떤 정규화를 말하는 지 매우 헷갈린다. 이번 기회에 정규화의 2가지 개념에 대한 차이점을 분명히 하고자 블로그에 정리를 하였다. Normalization(정규화) 결론부터 말하자면, Normalization은 어떠한 종류 Value들의 분산의 정도를 조절하여 입력 데이터나 중간 레이어의 활성화 값을 조정하여 학습을 안정화시키거나 속도를.. 더보기
정밀도(Precision)과 재현율(Recall)(Feat. mAP, AP, 검출 성능 척도) [컴퓨터 비전과 딥러닝] P 376 中 검출(Detection) 분야에서는 mAP라는 성능 척도를 사용하는데, 이 성능 척도를 계산하기 위해서는 정밀도(Precision)과 재현율(Recall) 계산이 필요하다. 그러나 정밀도(Precision)과 재현율(Recall)에 대한 개념이 헷갈려 이와 같이 블로그에 정리를 해두려고 한다. 결론부터 말을 하면, 정밀도(Precision)은 모델[이] "Positive"라고 예측한 것이 얼마나 정확한 것인지를 계산한 것. (정밀도 = TP/TP+FP) 재현율(Recall)은 실제로 "Positive"인 것들을 얼마나 모델이 잘 맞췄는 지를 계산한 것. 다시 말해, 모델이 얼마나 많은 "예"를 놓치지 않고 찾아냈는지를 나타냅니다. (재현율 = TP/TP+FN) 정밀.. 더보기