2. Image Classification

2. Image Classification

2018, Jan 11    


목차


  • Summary


Summary


  • 먼저 Summary를 통하여 Image Classification 강의를 간략하게 정리하겠습니다.


이미지 분류 (Image classification)


  • ① 이미지 입력 값 : 0-255 값을 갖는 픽셀들로 이루어진 행렬 (높이 x 너비 x 채널 수)
  • ② 이미지 분류를 어렵게 하는 요소들 : 다양한 조도, 형태 변형, 가려짐, 배경과의 식별이 어려울 때, 같은 분류 집합 내에서의 다양성 등


자료 기반 접근법 (Data-driven approach)


  • 정답 (label)이 있는 이미지들의 많은 예제를 보고 분류기(classifier) 학습


최근접 이웃 분류기 (Nearest Neighbor classifier)


  • ① k-최근접 이웃 분류기 (k-Nearest Neighbors; k = 클래스 개수)


Drawing


  • ② 거리 계산법 (학습용 이미지와 테스트용 이미지 사이 간 거리)


Drawing


  • L1 distance (맨하탄 거리; 각 픽셀 별 오차의 절대값들의 합)


Drawing


  • L2 거리 (유클리디안 거리; 각 픽셀 별 오차의 제곱평균제곱근(root mean square))


Drawing


  • 하이퍼파라미터 (Hyperparameter)


  • 학습 전 단계에서 미리 결정해 줘야 하는 모수 (학습되지 않음)
  • k-최근접 이웃 분류기 알고리즘의 k와 거리 계산 법이 하이퍼파라미터에 해당됨.
  • 적절한 초모수 값은 풀고자 하는 문제 및 데이터 셋에 따라 달라짐.


Drawing


  • 전체 데이터를 학습용(train), 검증용(validation), 테스트용(test)로 나눔. 검증용 데이터에서 초모수를 선택하고, 테스트용 데이터에서 평가함.
  • 교차 검증 (cross-validation) : 학습용 데이터를 여러 겹(folds)으로 나누고, 하나의 겹을 검증용 데이터로 이용하고 나머지는 학습용 데이터로 이용함. 각 겹을 돌아가면서 한번씩 검증용 데이터로 사용. 적은 데이터 셋에 적합.
  • k-최근접 이웃 분류기는 이미지 데이터 셋에 사용되지 않음 (연산 속도가 느리고 이미지의 정보를 추출하기에 적합하지 않음).


선형 분류 (Linear Classification)


  • ① 모수적 접근 (Parametric approach) : \(f x, W = Wx + b\)
    •  \(x\)는 입력 이미지, \(W\)는 가중치 \(b\)는 편향
    •  \(x\) : \color{blue}{픽셀 개수× 이미지 채널 개수}
    •  \(W\) : \color{red}{클래스 개수} × \color{blue}{(픽셀 개수× 이미지 채널 개수)}
    •  \(b\) : \color{red}{클래스 개수} × 1


  • ② 선형 분류가 어려운 상황들
    • 배타적 논리합(XOR)문제
    • 비선형


Drawing


퀴즈


  • 최근접 이웃 분류기는 선형분류기의 일종이다. (X)
  • 교차 검증법은 딥러닝에 필수적이다. (X)
  • 검증용(validation data) 데이터는 모수(parameter)를 학습하기 위해 사용된다. (O)


  • 파라미터(parameter)와 하이퍼파라미터(hyperparameter)의 차이점
    • 파라미터: 학습 단계 중에 모델에 의해서 학습됨
    • 하이퍼파라미터 : 학습 전에 사람에 의해서 결정


  • L1 거리와 L2 거리가 이미지 분류에 적합하지 않은 이유는?
    • 이미지의 배경과 의미론적인 부분을 구별할 수 없기 때문에 사용하는 데 한계가 있다.