본문 바로가기
[대학원] AI/Computer Vision

Intro to Deep Learning

by 지수토리 2025. 9. 11.
728x90

Perceptron

  • 입력 (x)에 대해 가중합 (z = w^Tx+b)을 만들고, 임계함수로 이진 분류 (y=1[z>0]) 하는 것.
  • 선형 분리 가능 문제 (AND, OR gate) 표현 가능.
  • 한계점: 결정 경계가 직선/초평면 하나라서 XOR과 같은 비선형 분리 문제 표현 불가.

Multi Layer Perceptron (MLP)

  • 위 문제를 극복하기 위해, 은닉층을 추가하고 각 층마다 비선형 활성화 (\sigma (\cdot))를 사용.
  • 즉, MLP = 여러 Fully Connected layer + 활성화 함수로 쌓은 구조.

Fully-Connected Layer

  • 입력층의 모든 노드가 출력층의 모든 노드와 연결된 선형 변환.
  • Linear Layer 라고도 부름.
  • MLP는 이 FC layer를 쌓아서 만들었다 보면 됨.

Forward Propagation

  • Weight Matrix: i 번째 layer와 i+1 번째 layer를 연결하는 가중치 행렬.

  • Activation: 비선형 함수 (sigmoid, tanh, ReLU 등)를 적용해 출력의 비선형 변환을 만든 것.

    • i+1번째 layer의 뉴런에 전파하기 전에 어떤 뉴런을 on/off할지 본다고 봐도 됨.
반응형

'[대학원] AI > Computer Vision' 카테고리의 다른 글

HoG (Histogram of Oriented Gradients)  (0) 2025.09.11
SIFT (Scale Invariant Feature Transform)  (0) 2025.09.11