인공지능개념

인공지능 손실함수 종류 쉽게 이해하기

snapinfo 2025. 6. 12. 08:00
반응형

 

🎯 손실함수(Loss Function)란?

손실함수는 인공지능이 예측한 값이 실제 정답과 얼마나 다른지를 수치로 계산해주는 함수입니다.
손실(Loss)이 작을수록 AI가 더 잘 맞혔다는 뜻이에요!

✅ 대표 손실함수 5가지 + 정의, 수식, 예시, 쉬운 설명

🟢 1. L1 Loss (절대값 손실)

정의: 예측값과 실제값의 절대 차이를 계산하는 손실 함수입니다.

수식: \( L_1 = |y - \hat{y}| \)

👉 예측과 실제 값의 차이를 그냥 '얼마나 떨어졌는지' 직접 비교하는 수식이에요.

예시: \( y = 120, \hat{y} = 100 \Rightarrow L_1 = |120 - 100| = 20 \)

👉 120이 정답인데 100으로 예측했다면 20만큼 틀린 거예요.

쉬운 설명: L1은 "틀린 만큼만 점수"를 매기는 방식이에요. 간단하고 직관적이에요.

🟡 2. MSE Loss (평균 제곱 오차)

정의: 예측값과 실제값의 차이를 제곱한 뒤 평균내는 손실 함수입니다.

수식: \( \text{MSE} = \frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2 \)

👉 틀린 정도를 제곱해서 평균을 내는 공식이에요. 많이 틀리면 벌점도 커져요.

예시: \( y = [3, 5], \hat{y} = [2, 1] \Rightarrow \text{MSE} = \frac{(1)^2 + (4)^2}{2} = \frac{17}{2} = 8.5 \)

👉 3 대신 2, 5 대신 1로 예측하면 1, 4만큼 틀린 거고, 그걸 제곱해서 평균낸 값이에요.

쉬운 설명: MSE는 많이 틀릴수록 더 많이 벌점 주는 방식이에요. 큰 실수를 줄이고 싶을 때 좋아요.

🔵 3. Cross Entropy Loss (교차 엔트로피 손실)

정의: 분류 문제에서 정답 클래스 확률과 예측 확률 간의 차이를 계산하는 손실 함수입니다.

수식: \( \text{Loss} = -[y \log(\hat{y}) + (1 - y) \log(1 - \hat{y})] \)

👉 정답일 확률이 얼마나 높은지를 보고, 확신이 없으면 손실을 크게 줘요.

예시: \( y = 1, \hat{y} = 0.8 \Rightarrow \text{Loss} = -\log(0.8) \approx 0.223 \)

👉 정답이 1인데, AI가 0.8로 예측한 건 거의 맞췄지만 100%는 아니니까 손실이 좀 있어요.

쉬운 설명: 예측이 정답과 가까울수록 손실이 작아져요. 분류 문제에 자주 써요.

🔴 4. KL Divergence Loss (KL 발산 손실)

정의: 두 확률 분포 간의 거리(차이)를 측정하는 손실 함수입니다.

수식: \( KL(P \parallel Q) = \sum P(i) \log \left( \frac{P(i)}{Q(i)} \right) \)

👉 P는 실제 데이터 분포, Q는 AI의 예측 분포예요. 둘 사이가 멀면 손실이 커요.

예시: \( P = [0.5, 0.5], Q = [0.9, 0.1] \Rightarrow KL \approx 1.172 \)

👉 실제는 반반인데 AI는 확신을 한쪽에 줬으니 오차가 크겠죠?

쉬운 설명: 진짜 분포랑 예측 분포가 얼마나 다른지 보는 방식이에요. 분포 자체가 중요한 문제에 좋아요.

🟣 5. Triplet Margin Loss (삼중 마진 손실)

정의: 기준 이미지와 비슷한 이미지, 다른 이미지 사이 거리를 조절하는 손실 함수입니다.

수식: \( L(a, p, n) = \max(0, d(a, p) - d(a, n) + \text{margin}) \)

👉 기준(anchor), 친구(positive), 낯선 사람(negative) 사이의 거리 차이를 이용해 학습해요.

예시: \( d(a,p) = 0.2, d(a,n) = 0.6, \text{margin} = 0.5 \Rightarrow \text{Loss} = \max(0.2 - 0.6 + 0.5, 0) = 0.1 \)

👉 기준과 친구는 가까워야 하고, 기준과 낯선 사람은 멀어야 해요. 그 차이가 적으면 벌점을 주는 거죠.

쉬운 설명: 비슷한 건 가깝게, 다른 건 멀게. 얼굴 인식처럼 유사도 비교가 중요한 문제에서 사용해요.

 

📌 손실함수 요약표

     
  손실함수용도 (언제 쓰나요?) 손실함수용도
L1 Loss 회귀 (숫자 예측) 절대적 차이에 비례
MSE Loss 회귀 (숫자 예측) 큰 오차에 민감
Cross Entropy 분류 (이진, 다중 클래스) 예측 확률의 정확성 평가
KL Divergence 확률 분포 차이 측정 분포 간 거리 측정
Triplet Margin 유사도 학습 (얼굴 인식) 데이터 간 거리 학습
 
반응형