AI/Kaggle 30 Days of ML
Machine Learning Study Course with "Kaggle" (머신러닝 스터디 코스)
Machine Learning Study Course with "Kaggle" (머신러닝 스터디 코스)
2021.10.17Introduction [English 🇺🇸] " 30 Days of ML with Kaggle" Repository presents a Machine Learning Study Guide using the Kaggle Platform. This course is based on a tutorial provided by Kaggle.I wrote a description of each kernel on my personal development blog. You can access it for free. I hope this study course will help beginners study machine learning. This repository is continuously being update..
30 Days of ML with Kaggle [Challenge Complete]
30 Days of ML with Kaggle [Challenge Complete]
2021.09.02캐글에서(Kaggle) 30일간 진행되었던 머신러닝 코스를 완료했다. 머시러닝의 전체적인 프로세스를 다시한번 재고하는 좋은 공부가 되었다. 아! 그리고 이번 과정을 진행하면서 캐글에서 만들어준 Discord의 Korea서버에서 많은 질문이 올라왔었는데, 질문에대해서 도움을 드리다보니 나 스스로도 더 공부하게 되었고, 지식을 공유하며 성장하는 즐거움을 느꼈다. 이번과정을 수료하며 캐글에서 발급하는 파이썬수료증과 머신러닝수료증을 총3개를 받았다. 이번 프로그램이 끝나긴 했지만, 지속적으로 캐글과 데이콘에서 스터디를 이어갈 생각이다. 나는 계속 성장한다!! 캐글 스터디그룹 분들 모두 수고하셨습니다!
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5)
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5)
2021.09.01이번에는 덜 보수적인 모델이 되도록 XGBRegressor의 파라미터를 변경했다. Public에서의 결과는 최적파라미터 모델, 보수적 모델, 덜 보수적 모델 3가지가 모두 비슷하다. Private에서 결과가 어떻게 나올지 궁굼하다. 덜 보수적인 모델을 공유한다! reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5 Welcome to the 30 Days of ML competition! Import helpful libraries¶ We begin by importing the libraries we'll need. Some of them will be familiar from the Intro to Machine Learning course and ..
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9)
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9)
2021.09.01XGBRgressor의 파라미너 ref_lambda, reg_alpha는 해당 파라미터의 값을 증가시키면 모델에 대해 보수적인 성향을 추가하게 된다. 현재 RMSE(Root-mean-square-Error)가 0.71 정도가 되는데, private 평가에서는 좀더 보수적인 모델이 성능이 좋을 것 같아서, 최종 제출은 보수적인 모델 1개와 덜 보수적인 모델 1개 이렇게 총 2개를 제출하려고 생각중이다. 파라미터 값을 변경한 보수적인 모델을 소개한다! reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9 Welcome to the 30 Days of ML competition! Import helpful libraries¶ We begin by importing the libra..
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(XGBRegressor)
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(XGBRegressor)
2021.09.01train 25개의 column과 300000개의 row로 구성된 train data set을 이용하여 동일한 column과 200000개로 구성된 test data set에 대하여 target을 예측하는 competition에 참여했다. 30 Days of ML을 마무리하는 competition을 진행하며 제출한 submission이 꽤 많은데 그중 몇가지를 소개하려고한다. 이 포스팅에는 가장 최적값이라고 생각되어지는 XGBRegressor 파라미터를 적용한 코드를 소개한다. Welcome to the 30 Days of ML competition! Import helpful libraries¶ We begin by importing the libraries we'll need. Some of them..
30 Days of ML with Kaggle [Day 15~30]- Data analysis
30 Days of ML with Kaggle [Day 15~30]- Data analysis
2021.08.28캐글의 타이타닉 데이터를 이용해서 Data analysis의 전체적인 과정을 되짚어 보는 시간을 가졌다. Data analysis는 크게 5가지 과정으로 나눌 수 있다. Data set check EDA(Exploratory Data Analysis) Feature engineering Model development - Machine learning Machine learning prediction - feature importance and prediction on test set 베이직한 Data analysis 과정을 살펴보자. import helpful libraries¶ In [1]: # numpy, pandas, matplot 임포트 import numpy as np import pandas..