본문 바로가기

Computer Vision3

Intro to Deep Learning Perceptron입력 (x)에 대해 가중합 (z = w^Tx+b)을 만들고, 임계함수로 이진 분류 (y=1[z>0]) 하는 것.선형 분리 가능 문제 (AND, OR gate) 표현 가능. 한계점: 결정 경계가 직선/초평면 하나라서 XOR과 같은 비선형 분리 문제 표현 불가. Multi Layer Perceptron (MLP)위 문제를 극복하기 위해, 은닉층을 추가하고 각 층마다 비선형 활성화 (\sigma (\cdot))를 사용.즉, MLP = 여러 Fully Connected layer + 활성화 함수로 쌓은 구조.Fully-Connected Layer입력층의 모든 노드가 출력층의 모든 노드와 연결된 선형 변환.Linear Layer 라고도 부름. MLP는 이 FC layer를 쌓아서 만들었다 보면 .. 2025. 9. 11.
HoG (Histogram of Oriented Gradients) 💡 이미지를 Cell 단위로 나누어, 각 셀에서 edge의 방향과 크기 계산 후, 방향 정보를 담은 히스토그램을 정리해 local shape을 표현하는 것. HoG는 이미지 안의 shape을 "edge direction" 분포 형태의 "압축된 의미있는 특징 벡터"로 표현하는 것. 그럼 이걸 왜 구하나? 모델에 raw 그대로 넣으면 노이즈도 많고 차원이 큰 문제가 있음.그래서, 이미지에서 의미 있는 정보를 뽑아 "feature vector"로 변환해서 object detection 등을 수행하면 훨씬 효과적임.1. Calculate Gradient Images이미지 각 픽셀의 수직 & 수평 gradient 계산 -> 크기 & 방향 계산.$$G_x = I(x+1,y)-I(x-1,y), G_y = I(x,y.. 2025. 9. 11.
SIFT (Scale Invariant Feature Transform) 💡 극값과 유사한 Keypoint를 찾아 대표 방향(θ)을 정한 후, Keypoint 주변 정보를 히스토그램 벡터로 요약 표현하는 알고리즘. 어떤 사물을 찍을 때, 카메라 각도나 거리가 달라져도 같은 물체임을 알아볼 수 있도록 하는 "특징"을 추출하기 위한 방법.즉, scale, roatation에 invariant한 특징점 (keypoint)를 찾는 것이 목표.1. Making Scale-Space이미지를 여러 크기로 변환 (Scale 조정)해서 특징점 찾기.각 scale마다, 가우시안 블러를 다양하게 적용 (\( \sigma \) 조정)2. Computing DoG images각 scale 단계에서, 인접한 블러 이미지끼리 빼서 Difference of Gaussian (DoG) 이미지 생성.3. .. 2025. 9. 11.
반응형