ML&DL
2021. 7. 1.
[머신러닝] Bias vs. Variance (Overfitting vs. Underfitting)
Bias: 데이터의 특징을 필요 이하로 추출할 때 나타납니다. -> 클수록 Underfitting Variance: 데이터의 특징을 필요 이상으로 추출할 때 나타납니다. -> 클수록 Overfitting Bias를 지나치게 줄이고 Variance를 높이면 Train data에서만 모델이 잘 학습되는 경향이 나타나게 됩니다. 반대의 경우엔 데이터의 특징이 뭔지를 모델이 찾아 내지 못할 수 있습니다. 즉, Bias와 Variance의 중간값이 가장 좋은 모델 조건이 된다고 볼 수 있습니다. (Bias는 정답과 예측값 간의 거리, Variance는 모델별 예측값 간의 거리) Overfitting 피하는 방법: 더 많은 데이터를 확보, 부족학 학습 데이터 채우기, 학습에 사용된 특징 줄이기, 특징들의 수..