AI
딥러닝의 역사 및 기본용어 정리 - Historical Review(논문)
딥러닝의 역사 및 기본용어 정리 - Historical Review(논문)
2021.12.10강의 소개 이번 글에선 딥러닝에 대한 소개, 그리고 딥러닝의 역사에 대해 알아본다. 딥러닝에 대한 소개 : CNN(Convolutional neural networks), RNN(Recurrent Neural Networks)와 같은 딥러닝 모델을 공부하기 전에 중요한 요소인, Data, Model, Loss, Optimization algorithms에 대해 배운다. 딥러닝의 역사 : 2012년 부터 2021년까지의 패러다임에 대해 배운다 딥러닝은 한사람이 짧은 시간동안 다루기에는 너무나 다양한 연구주제가 존재한다.(ex. 장님이 코끼리를 만지는 상황) 딥러닝 학문은 여러가지 분야들로 이루어져있다. 따라서 어떤 분야가 좋은 "deep learner"가 되는지는 일반적으로 3가지 정도로 생각한다. 그중 ..
Machine Learning Study Course with "Kaggle" (머신러닝 스터디 코스)
Machine Learning Study Course with "Kaggle" (머신러닝 스터디 코스)
2021.10.17Introduction [English 🇺🇸] " 30 Days of ML with Kaggle" Repository presents a Machine Learning Study Guide using the Kaggle Platform. This course is based on a tutorial provided by Kaggle.I wrote a description of each kernel on my personal development blog. You can access it for free. I hope this study course will help beginners study machine learning. This repository is continuously being update..
Predict modeling process
Predict modeling process
2021.09.03라이브러리 import Dataset check (null) Exploratory Data Analysis 각 feature(column)분석 상관관계 파악 visualization tool을 이용해서 인사이트 도출 Feature engineering (improve model performance) ex) one hot encoding 클래스로 나누거나 구간으로 나누거나, 텍스트 데이터 처리 모델 생성 모델학습, 예측 모델 평가 (정확도를 따질 수도 있고, RMSE등 평가방식은 여러가지)
30 Days of ML with Kaggle [Challenge Complete]
30 Days of ML with Kaggle [Challenge Complete]
2021.09.02캐글에서(Kaggle) 30일간 진행되었던 머신러닝 코스를 완료했다. 머시러닝의 전체적인 프로세스를 다시한번 재고하는 좋은 공부가 되었다. 아! 그리고 이번 과정을 진행하면서 캐글에서 만들어준 Discord의 Korea서버에서 많은 질문이 올라왔었는데, 질문에대해서 도움을 드리다보니 나 스스로도 더 공부하게 되었고, 지식을 공유하며 성장하는 즐거움을 느꼈다. 이번과정을 수료하며 캐글에서 발급하는 파이썬수료증과 머신러닝수료증을 총3개를 받았다. 이번 프로그램이 끝나긴 했지만, 지속적으로 캐글과 데이콘에서 스터디를 이어갈 생각이다. 나는 계속 성장한다!! 캐글 스터디그룹 분들 모두 수고하셨습니다!
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5)
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5)
2021.09.01이번에는 덜 보수적인 모델이 되도록 XGBRegressor의 파라미터를 변경했다. Public에서의 결과는 최적파라미터 모델, 보수적 모델, 덜 보수적 모델 3가지가 모두 비슷하다. Private에서 결과가 어떻게 나올지 궁굼하다. 덜 보수적인 모델을 공유한다! reg_lambda 35.1 ▶ 20, reg_alpha 34.9 ▶ 20, max_depth 2 ▶ 5 Welcome to the 30 Days of ML competition! Import helpful libraries¶ We begin by importing the libraries we'll need. Some of them will be familiar from the Intro to Machine Learning course and ..
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9)
30 Days of ML with Kaggle [Day 15~30]- Competition Submission(reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9)
2021.09.01XGBRgressor의 파라미너 ref_lambda, reg_alpha는 해당 파라미터의 값을 증가시키면 모델에 대해 보수적인 성향을 추가하게 된다. 현재 RMSE(Root-mean-square-Error)가 0.71 정도가 되는데, private 평가에서는 좀더 보수적인 모델이 성능이 좋을 것 같아서, 최종 제출은 보수적인 모델 1개와 덜 보수적인 모델 1개 이렇게 총 2개를 제출하려고 생각중이다. 파라미터 값을 변경한 보수적인 모델을 소개한다! reg_lambda 35.1 ▶ 45.9, reg_alpha 34.9 ▶ 44.9 Welcome to the 30 Days of ML competition! Import helpful libraries¶ We begin by importing the libra..