1주차가 CLIP 논문과 ML의 이론적 토대를 다지는 '인풋(Input)'의 시간이었다면, 2주차는 현대 딥러닝(DL)의 핵심 모델들을 직접 구현하며 데이터가 모델을 거쳐 결과로 산출되는 거대한 흐름을 알게 된 '아웃풋(Output)'의 시간이었습니다.

1. 딥러닝의 근간, MLP와 학습 파이프라인의 완성

가장 먼저 딥러닝의 정석이라 불리는 MLP(Multi-Layer Perceptron)를 구현하며 학습의 전 과정을 내재화했습니다.

  • 학습 메커니즘의 심층 이해: 단순히 함수를 호출하는 것이 아니라 순전파(Forward Propagation)를 통해 데이터를 흘려보내고, 손실 함수(Loss Function)로 오차를 계산한 뒤, 역전파(Backpropagation)와 Optimizer를 통해 가중치(Weights)를 미세하게 조정해 나가는 딥러닝의 전체 파이프라인을 직접 구축했습니다.
  • 검증의 중요성: 훈련 데이터에만 매몰되지 않도록 별도의 테스트셋을 활용해 모델의 일반화 성능을 확인하며 실제 서비스 가능한 모델을 만드는 과정을 배울 수 있었습니다.

2. 데이터셋의 특성에 따른 모델의 진화와 최적화

모든 데이터에 만능인 모델은 없습니다. 이번 실습을 통해 데이터의 형태와 복잡도에 따라 어떤 아키텍처를 선택해야 하는지 '적재적소'의 원리를 깨달았습니다.

딥러닝의 기본 MLP

딥러닝의 가장 기본인 **MLP(Multi-Layer Perceptron)**를 시작으로 훈련을 함으로써 가중치가 어떻게 변하는지 확인하였습니다.

2026.01.21 - [현장실습 일기] - 2주차 회고 - 딥러닝(Deep Learning)의 본질: '깊은' 신경망의 힘

 

MNIST로 손글씨 숫자 분석하기

딥러닝 공부를 시작할 때 가장 먼저 마주하게 되는 MNIST(Modified National Institute of Standards and Technology) 데이터셋. 0부터 9까지의 손글씨 숫자로 구성된 이 데이터를 활용해, 모델이 어떻게 선과 곡선을 구분하고 숫자를 '인식'하게 되는지 그 과정을 심층적으로 분석해 보았습니다.

2026.01.21 - [현장실습 일기] - 2주차 회고 - 딥러닝의 Hello World: MNIST 손글씨 숫자 분류하기

 

2주차 회고 - 딥러닝의 Hello World: MNIST 손글씨 숫자 분류하기

딥러닝을 공부할 때 가장 먼저 접하게 되는 '교과서' 같은 데이터셋이 있습니다. 바로 MNIST입니다. 이 데이터를 활용해 인공지능이 어떻게 숫자를 인식하는지 그 과정을 PyTorch 코드로 상세히 파

younglook.tistory.com

 

Fashion MNIST: MLP vs CNN

가장 기초적인 흑백 이미지 데이터셋을 활용해 두 모델을 비교해 보았습니다.

  • 발견: 단순한 픽셀 나열인 MLP보다 이미지의 지역적 특징(Local Feature)을 포착하는 **CNN(Convolutional Neural Network)**이 이미지 데이터에서 왜 압도적인 효율을 보이는지 정확도 수치로 체감할 수 있었습니다.

2026.01.21 - [현장실습 일기] - 2주차 회고 -FashionMNIST로 비교하는 MLP vs CNN 성능 차이 분석

 

2주차 회고 -FashionMNIST로 비교하는 MLP vs CNN 성능 차이 분석

전에는 단순히 0~9까지의 손글씨 데이터가 있는 MNIST를 사용하였습니다.이번에는 FashionMNIST 데이터셋을 활용하여 일반적인 딥러닝 모델(MLP)과 이미지 처리에 특화된 합성곱 신경망(CNN)의 성능 차

younglook.tistory.com

 

CIFAR-100: 컬러 이미지와 CNN의 강력함

100가지 클래스를 가진 고해상도 컬러 데이터셋인 CIFAR-100은 MLP만으로는 한계가 명확했습니다.

  • 인사이트: RGB 3채널의 복잡한 특징을 추출하기 위해 필터와 풀링 레이어를 쌓으며, CNN이 공간적 구조(Spatial Structure)를 유지하며 학습하는 과정이 복잡한 객체 인식의 핵심임을 이해했습니다.

시퀀스 데이터와 RNN의 등장

이미지 정지 화면을 넘어, 데이터의 '순서'가 중요한 시계열이나 텍스트 데이터의 흐름을 다루기 위해 RNN(Recurrent Neural Network)을 학습했습니다.

  • 핵심 원리: 이전 단계의 정보를 현재의 학습에 반영하는 '순환' 구조를 보며, 앞뒤 맥락이 중요한 데이터셋에서 모델이 어떻게 기억을 유지하고 예측에 활용하는지 파악했습니다.

2주차를 마치며

이번 주차의 가장 큰 수확은 단순히 코드를 타이핑하는 스킬이 아니라, "왜 이 데이터에는 이 아키텍처가 효과적인가?"*라는 근본적인 질문에 스스로 답할 수 있게 된 점입니다.

잊고 있었던 기초 개념들이 실습을 통해 단단하게 굳어지니, 1주차에 읽었던 CLIP 같은 복잡한 최신 모델들도 결국 이러한 기본 원리들의 정교한 조합이라는 확신이 생겼습니다. 탄탄해진 기초를 발판 삼아, 3주차에는 실제 현업의 문제를 해결하는 더 도전적인 과제들에 뛰어들어 보려고 합니다.

+ Recent posts