반응형
    
    
    
  Supervised Learning, Unsupervised Learning, Self-Supervised Learning은 인공지능이 데이터를 학습하는 방식에 따라 나뉘는 대표적인 세 가지 유형입니다.
아래에서 핵심 개념, 차이점, 예시를 쉽고 명확하게 비교해드릴게요.
✅ 한눈에 보는 비교표
항목Supervised<br>(지도학습)Unsupervised<br>(비지도학습)Self-Supervised<br>(자기지도학습)
 
| 🎯 학습 방식 | 입력 + 정답(Label) 모두 제공 | 정답(Label) 없이 입력만 제공 | 정답을 스스로 생성해서 학습 | 
| 🧠 목적 | 예측 가능한 모델 훈련 | 숨은 구조/패턴 발견 | 입력 내부의 관계 학습 | 
| 📦 데이터 | 라벨링 필요 (비용 큼) | 라벨 없음 | 라벨 없이 가능, 성능은 지도학습급 | 
| 📘 예시 | 고양이/개 분류, 집값 예측 | 고객 군집화, 이상치 탐지 | BERT, GPT, 이미지 contrastive 학습 | 
| ✅ 장점 | 정확도 높음, 예측 가능 | 라벨링 필요 없음 | 라벨 없이 대규모 학습 가능 | 
| ⚠️ 단점 | 라벨링 비용 큼 | 정답이 없어서 평가 어려움 | 설계와 해석이 복잡할 수 있음 | 
🔍 각 학습 방식 자세히 보기 + 오차 측정 방식
🟦 1️⃣ Supervised Learning (지도학습)
📌 개념:
입력 데이터(X)와 정답(Y)을 쌍으로 제공하여 학습
모델은 예측값과 정답의 차이를 계산하여 학습을 반복하며 성능을 개선
🎯 예:
- 고양이/강아지 분류
 - 집 면적 → 집값 예측
 
⚖️ 오차 측정 방식:
정답이 있기 때문에 오차를 정확하게 수치화 가능
👉 Loss Function을 사용해 모델이 얼마나 틀렸는지 측정
문제 유형오차 함수
 
| 회귀 | MSE (Mean Squared Error), MAE | 
| 분류 | Cross Entropy Loss, Binary Cross Entropy | 
| 다중 클래스 분류 | Categorical Cross Entropy | 
python
복사편집
# 예시 (PyTorch) import torch.nn as nn loss_fn = nn.CrossEntropyLoss() # 분류 문제 예 
🟨 2️⃣ Unsupervised Learning (비지도학습)
📌 개념:
정답(레이블) 없이 입력(X)만으로 학습
데이터를 분석해 군집, 분포, 차원 축소 등의 패턴을 찾아냄
🎯 예:
- 고객 세그먼트 나누기 (군집화)
 - 이미지 압축 (차원 축소)
 - 이상치 탐지
 
⚖️ 오차 측정 방식:
정답이 없기 때문에 명확한 오차(Loss)가 없음
대신 다음과 같은 비교 지표로 학습 품질을 평가함:
기법평가 방법
 
| K-means | 클러스터 내 거리(WCSS) 최소화 | 
| PCA | 재구성 오차(Reconstruction Error) | 
| Autoencoder | 입력과 복원된 출력 간의 차이 (MSE) | 
| 이상치 탐지 | 밀도/거리 기반 스코어 사용 | 
python
복사편집
# 예시: AutoEncoder reconstruction loss loss = MSELoss(input, reconstructed_input) 
🟩 3️⃣ Self-Supervised Learning (자기지도학습)
📌 개념:
라벨 없는 데이터에서 일부를 가리고, 정답처럼 활용해 스스로 학습
지도학습처럼 오차를 계산하지만, 정답을 사람이 제공하지 않아도 됨
🎯 예:
- BERT: 문장 속 단어 일부 [MASK] 처리 → 맞히기
 - SimCLR: 이미지 두 장 변형 → 같은 이미지인지 구별
 - GPT: 다음 단어 예측
 
⚖️ 오차 측정 방식:
❗️정답 없이 만든 "가짜 레이블"을 기준으로 Loss 계산 가능
→ 지도학습과 동일한 방식으로 오차 측정
문제 유형오차 함수
 
| 마스킹된 단어 예측 | Cross Entropy Loss | 
| 이미지 쌍 비교 (Contrastive) | Contrastive Loss, NT-Xent Loss | 
| 다음 토큰 예측 (GPT류) | Language Modeling Loss (CE) | 
python
복사편집
# 예시: BERT의 Masked Language Modeling loss_fn = nn.CrossEntropyLoss() # 가려진 단어 예측 오차 
✅ 요약 비교
항목SupervisedUnsupervisedSelf-Supervised
 
| 오차 계산 방식 | 정답 기준으로 직접 Loss 계산 | 정답 없음 → 재구성 오차나 거리 사용 | 스스로 만든 정답으로 Loss 계산 가능 | 
반응형
    
    
    
  '인공지능개념' 카테고리의 다른 글
| 인공지는 최적화 함수 비교 (2) | 2025.06.13 | 
|---|---|
| 인공지능 손실함수 종류 쉽게 이해하기 (1) | 2025.06.12 | 
| 인공지능 개념 - 벡터 vs 텐서 (0) | 2025.06.10 | 
| 머신러닝 vs 딥러닝 (2) | 2025.06.09 | 
| 인공지능 학습방법 3가지 (2) | 2025.06.08 |