XGBRegressor
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5)
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5)
2021.09.01이번에는 덜 보수적인 모델이 되도록 XGBRegressor의 파라미터를 변경했다. Public에서의 결과는 최적파라미터 모델, 보수적 모델, 덜 보수적 모델 3가지가 모두 비슷하다. Private에서 결과가 어떻게 나올지 궁굼하다. 덜 보수적인 모델을 공유한다! reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5 Welcome to the 30 Days of ML competition! Import helpful libraries¶ We begin by importing the libraries we'll need. Some of them will be familiar from the Intro to Machine Learning course and ..
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9)
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9)
2021.09.01XGBRgressor의 파라미너 ref_lambda, reg_alpha는 해당 파라미터의 값을 증가시키면 모델에 대해 보수적인 성향을 추가하게 된다. 현재 RMSE(Root-mean-square-Error)가 0.71 정도가 되는데, private 평가에서는 좀더 보수적인 모델이 성능이 좋을 것 같아서, 최종 제출은 보수적인 모델 1개와 덜 보수적인 모델 1개 이렇게 총 2개를 제출하려고 생각중이다. 파라미터 값을 변경한 보수적인 모델을 소개한다! reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9 Welcome to the 30 Days of ML competition! Import helpful libraries¶ We begin by importing the libra..