인공지능개념

인공지능이 데이터를 학습하는 방식

snapinfo 2025. 6. 11. 08:00
반응형

Supervised Learning, Unsupervised Learning, Self-Supervised Learning은 인공지능이 데이터를 학습하는 방식에 따라 나뉘는 대표적인 세 가지 유형입니다.
아래에서 핵심 개념, 차이점, 예시를 쉽고 명확하게 비교해드릴게요.


✅ 한눈에 보는 비교표

항목Supervised<br>(지도학습)Unsupervised<br>(비지도학습)Self-Supervised<br>(자기지도학습)
🎯 학습 방식 입력 + 정답(Label) 모두 제공 정답(Label) 없이 입력만 제공 정답을 스스로 생성해서 학습
🧠 목적 예측 가능한 모델 훈련 숨은 구조/패턴 발견 입력 내부의 관계 학습
📦 데이터 라벨링 필요 (비용 큼) 라벨 없음 라벨 없이 가능, 성능은 지도학습급
📘 예시 고양이/개 분류, 집값 예측 고객 군집화, 이상치 탐지 BERT, GPT, 이미지 contrastive 학습
✅ 장점 정확도 높음, 예측 가능 라벨링 필요 없음 라벨 없이 대규모 학습 가능
⚠️ 단점 라벨링 비용 큼 정답이 없어서 평가 어려움 설계와 해석이 복잡할 수 있음
 

 

🔍 각 학습 방식 자세히 보기 + 오차 측정 방식


🟦 1️⃣ Supervised Learning (지도학습)

📌 개념:

입력 데이터(X)와 정답(Y)을 쌍으로 제공하여 학습
모델은 예측값과 정답의 차이를 계산하여 학습을 반복하며 성능을 개선

🎯 예:

  • 고양이/강아지 분류
  • 집 면적 → 집값 예측

⚖️ 오차 측정 방식:

정답이 있기 때문에 오차를 정확하게 수치화 가능
👉 Loss Function을 사용해 모델이 얼마나 틀렸는지 측정

문제 유형오차 함수
회귀 MSE (Mean Squared Error), MAE
분류 Cross Entropy Loss, Binary Cross Entropy
다중 클래스 분류 Categorical Cross Entropy
 
python
복사편집
# 예시 (PyTorch) import torch.nn as nn loss_fn = nn.CrossEntropyLoss() # 분류 문제 예

🟨 2️⃣ Unsupervised Learning (비지도학습)

📌 개념:

정답(레이블) 없이 입력(X)만으로 학습
데이터를 분석해 군집, 분포, 차원 축소 등의 패턴을 찾아냄

🎯 예:

  • 고객 세그먼트 나누기 (군집화)
  • 이미지 압축 (차원 축소)
  • 이상치 탐지

⚖️ 오차 측정 방식:

정답이 없기 때문에 명확한 오차(Loss)가 없음
대신 다음과 같은 비교 지표로 학습 품질을 평가함:

기법평가 방법
K-means 클러스터 내 거리(WCSS) 최소화
PCA 재구성 오차(Reconstruction Error)
Autoencoder 입력과 복원된 출력 간의 차이 (MSE)
이상치 탐지 밀도/거리 기반 스코어 사용
 
python
복사편집
# 예시: AutoEncoder reconstruction loss loss = MSELoss(input, reconstructed_input)

🟩 3️⃣ Self-Supervised Learning (자기지도학습)

📌 개념:

라벨 없는 데이터에서 일부를 가리고, 정답처럼 활용해 스스로 학습
지도학습처럼 오차를 계산하지만, 정답을 사람이 제공하지 않아도 됨

🎯 예:

  • BERT: 문장 속 단어 일부 [MASK] 처리 → 맞히기
  • SimCLR: 이미지 두 장 변형 → 같은 이미지인지 구별
  • GPT: 다음 단어 예측

⚖️ 오차 측정 방식:

❗️정답 없이 만든 "가짜 레이블"을 기준으로 Loss 계산 가능
→ 지도학습과 동일한 방식으로 오차 측정

문제 유형오차 함수
마스킹된 단어 예측 Cross Entropy Loss
이미지 쌍 비교 (Contrastive) Contrastive Loss, NT-Xent Loss
다음 토큰 예측 (GPT류) Language Modeling Loss (CE)
 
python
복사편집
# 예시: BERT의 Masked Language Modeling loss_fn = nn.CrossEntropyLoss() # 가려진 단어 예측 오차

✅ 요약 비교

항목SupervisedUnsupervisedSelf-Supervised
오차 계산 방식 정답 기준으로 직접 Loss 계산 정답 없음 → 재구성 오차나 거리 사용 스스로 만든 정답으로 Loss 계산 가능
 
반응형