ML&DL
2024. 8. 9.
앙상블 학습 (Ensemble Learning) 1 - 배깅 (Bagging)
앙상블 학습이란?여러 개의 모델을 결합하여 더 나은 예측 성능을 얻는 기법단일 모델보다 더 높은 정확도 제공 가능 데이터가 부족하거나 노이즈가 많은 경우에 유용 배깅, 부스팅 (Boosting), 스태킹 (Stacking) 등 예시: RandomForest, Gradient Boosting (XGBoost, LightGBM 등)앙상블 학습 중 하나인 배깅(Bagging)에 대해 자세히 알아보겠습니다. 배깅이란?Bootstrap Aggregation의 약자한 가지 분류 모델을 여러 개 만들어 서로 다른 학습 데이터로 학습 시킨 후 (Bootstrap), 동일한 테스트 데이터에 대한 서로 다른 예측값들을 투표를 통해 (Aggregating) 가장 높은 예측값으로 최종 결론을 내리는 방법투표의 종류 예: 손..