본문 바로가기

전체 글36

Intro to Deep Learning Perceptron입력 (x)에 대해 가중합 (z = w^Tx+b)을 만들고, 임계함수로 이진 분류 (y=1[z>0]) 하는 것.선형 분리 가능 문제 (AND, OR gate) 표현 가능. 한계점: 결정 경계가 직선/초평면 하나라서 XOR과 같은 비선형 분리 문제 표현 불가. Multi Layer Perceptron (MLP)위 문제를 극복하기 위해, 은닉층을 추가하고 각 층마다 비선형 활성화 (\sigma (\cdot))를 사용.즉, MLP = 여러 Fully Connected layer + 활성화 함수로 쌓은 구조.Fully-Connected Layer입력층의 모든 노드가 출력층의 모든 노드와 연결된 선형 변환.Linear Layer 라고도 부름. MLP는 이 FC layer를 쌓아서 만들었다 보면 .. 2025. 9. 11.
HoG (Histogram of Oriented Gradients) 💡 이미지를 Cell 단위로 나누어, 각 셀에서 edge의 방향과 크기 계산 후, 방향 정보를 담은 히스토그램을 정리해 local shape을 표현하는 것. HoG는 이미지 안의 shape을 "edge direction" 분포 형태의 "압축된 의미있는 특징 벡터"로 표현하는 것. 그럼 이걸 왜 구하나? 모델에 raw 그대로 넣으면 노이즈도 많고 차원이 큰 문제가 있음.그래서, 이미지에서 의미 있는 정보를 뽑아 "feature vector"로 변환해서 object detection 등을 수행하면 훨씬 효과적임.1. Calculate Gradient Images이미지 각 픽셀의 수직 & 수평 gradient 계산 -> 크기 & 방향 계산.$$G_x = I(x+1,y)-I(x-1,y), G_y = I(x,y.. 2025. 9. 11.
SIFT (Scale Invariant Feature Transform) 💡 극값과 유사한 Keypoint를 찾아 대표 방향(θ)을 정한 후, Keypoint 주변 정보를 히스토그램 벡터로 요약 표현하는 알고리즘. 어떤 사물을 찍을 때, 카메라 각도나 거리가 달라져도 같은 물체임을 알아볼 수 있도록 하는 "특징"을 추출하기 위한 방법.즉, scale, roatation에 invariant한 특징점 (keypoint)를 찾는 것이 목표.1. Making Scale-Space이미지를 여러 크기로 변환 (Scale 조정)해서 특징점 찾기.각 scale마다, 가우시안 블러를 다양하게 적용 (\( \sigma \) 조정)2. Computing DoG images각 scale 단계에서, 인접한 블러 이미지끼리 빼서 Difference of Gaussian (DoG) 이미지 생성.3. .. 2025. 9. 11.
모델 성능 평가 지표 MAE Mean Absolute Error 평균 절대 오차 |예측값 - 실제값|의 평균 from sklearn.metrics import mean_absolute_error mean_absolute_error(y_test, y_pred) MSE Mean Squared Error 평균 제곱 오차 |예측값 - 실제값|제곱의 평균 = 예측값과 실제값 차이의 면적의 합 from sklearn.metrics import mean_squared_error mean_squared_error(y_test, y_pred) RMSE Root Mean Squared Error 루트 평균 제곱 오차 |예측값 - 실제값|제곱의 평균에 루트를 씌운 값 from sklearn.metrics import mean_squared_er.. 2023. 6. 20.
[PyTorch] 💻 맥북 에어 M1칩에서 GPU 사용하기(MPS 장치 활용) for 머신러닝 학습 🌙 개요작년 초에 Pytorch를 이용해 딥러닝 모델을 학습시킬 때 겪었던 문제가 있었다. 필자는 macOS intel칩 데스크톱과 macOS m1칩 맥북 에어 유저였는데, 엔비디아에서 macOS에 대한 cuda지원을 중단해서, GPU를 사용할 수 없었다. 엔비디아 그래픽 카드가 탑재된 컴퓨터나 노트북이 아니면 GPU 사용이 어려웠던 것이다.2022년 7월 초 Pytorch 깃헙에서 Pytorch 1.12를 릴리즈 함에 따라 애플 실리콘(M1, M2) 칩이 탑재된 맥북에서 GPU 사용이 가능해졌다 !!방법은 MPS 장치를 사용하여 GPU를 가속하는 것이다. MPS 가속은 맥 OS 12.3 이상에서 지원되기 때문에 **" 몬터레이 12.3 버전 이상으로 업그레이드 후 " ** gpu를 사용했다.🌙 GP.. 2023. 6. 19.
[딥러닝] 다층 퍼셉트론 (MLP) 🧠 순전파와 역전파 개념 🤖 등장 배경 단층 퍼셉트론을 여러층 쌓아올리면 어떨까? 하고 나오게 된 개념이 다층 퍼셉트론이다. 🤖 개념 앞서 배운 퍼셉트론은 단층 퍼셉트론이다. 다층 퍼셉트론은? 단층 퍼셉트론을 여러개 쌓은 것이다. 하나 이상의 은닉층(Hidden Layer)을 가진 퍼셉트론. MLP (Multi-Layer Perceptron) 라 한다. 🤖 학습 과정 인공 신경망의 학습은 오차(예측값과 실제값 차)를 최소화하는 "가중치"를 찾는 목적으로 순전파와 역전파를 반복한다. 🔺 Forward Pass (순전파) (입력층 → 출력층) 의 방향으로 계산. 입력(a)과 그에 해당하는 가중치(w)를 곱한 값들의 합을 활성화 함수(activation function)에 전달한다. 활성화 함수로 부터 리턴된 값을 다시 input으로.. 2023. 6. 18.
반응형