최대 1 분 소요

Bias-Variance Decomposition

모델의 에러는 수학적으로 다음과 같이 분해된다.

\[\mathbb{E}[(y - \hat{f}(x))^2] = \text{Bias}^2 + \text{Variance} + \text{Noise}\]
  • Bias (편향): 모델이 너무 단순해서 데이터의 경향을 제대로 파악하지 못함. (Underfitting)
  • Variance (분산): 모델이 너무 복잡해서 데이터의 작은 노이즈까지 학습함. (Overfitting)

Tradeoff

  • 모델 복잡도 ⬆️ $\rightarrow$ Bias ⬇️, Variance ⬆️
  • 모델 복잡도 ⬇️ $\rightarrow$ Bias ⬆️, Variance ⬇️

우리의 목표는 이 둘의 합(Total Error)이 최소가 되는 적절한 균형점을 찾는 것이다. RL에서도 GAE의 $\lambda$ 등을 통해 이 트레이드오프를 조절한다.

댓글남기기