1 minute read

Loss Function - Regression

FYR:


종류

image


Mean Squared Error(MSE, L2 Loss)

예측값과 실제값 차이의 제곱 평균. 가장 일반적으로 사용되는 regression loss function.

  • MSE 는 오차의 제곱을 평균한 값이기 때문에, 오차에 제곱을 적용하는 L2 Norm 을 기반으로 한다.
  • 오차에 더 큰 패널티를 부여하는 특성을 가진다.

untitle

untitle

$n$ = Total number of data points $y_i$ = Desired outcome we want to achieve (실제 값) $\hat y_i$ = Predicted outcome what we actually receive from the model (예측 된 값)


장점

  • 편미분이 가능하여 최적화하기 쉽다.
  • MSE 는 미분 가능하고, 이를 Gradient Descent 를 통해 최적화 할 수 있다.
  • 연속적인 값 예측에 유리하다.
  • 회귀문제에서 가장 많이 사용되는 loss function 이며, 예측값과 실제 값의 차이를 직관적으로 표현할 수 있다.


단점

  • 이상치에 민감하여, 데이터 셋에 극단적인 값이 있을 경우 MSE 가 지나치게 커져, 모델 성능 평가에 왜곡을 줄 수 있다.
  • 해것이 어렵다.
    • MES 는 제곱 단위로 계측되기 때문에, 실제 단위와 다른 제곱 단위로 표현되어 직관적 해석이 어려울 수 있다.


Root Mean Squared Error(RMSE)

untitle


Mean Absolute Error(MAE, L1 Norm)

예측값과 실제값 차이의 절대값 평균. 이상치에 덜 민감하다.

  • MAE 는 오차의 절대값을 평균한 값으로, 절대 오차를 계산하는 L1 Norm 을 기반으로 한다.
  • 이상치에 더 강건한 특성을 지닌다.

MSE 와 차이

  • MSE 는 제곱 오차를 사용하기 때문에 이상치(outliers)에 민감하다.
  • 반면, MAE 는 절대 오차를 사용하기 때문에 이상치에 덜 민감하게 작용한다.
  • MSE 는 이상치가 중요한 회귀문제에서 많이 사용되며,
  • MAE 는 이상치의 영향을 줄이고자 할 때 사용된다.


Huber Loss

Huber Loss는 MSE처럼 예측값과 실제값 차이를 제곱하지만, 차이가 크면 MAE처럼 절대값으로 계산하여 이상치에 덜 민감하게 만듦



Loss Function Regularization

Weight Regularization

Learning Rate

Leave a comment