이 상품은 구매 후 지원 기기에서 예스24 eBook앱 설치 후 바로 이용 가능한 상품입니다.
|
Chapter 1 통계학의 원리와 머신러닝
1.1 좋은 데이터란? 1.2 모형과 오차항의 역할 1.3 데이터의 split, weight, 그리고 resampling 1.4 통계적 머신러닝, 딥러닝, 그리고 강화학습 1.5 AI 모형과 손실함수 1.6 자료분석 절차, 모형의 요약 1.7 Data Scientist에 필요한 AI 지식 Chapter 2 사전과정과 최적화 2.1 실수자료로의 전환 2.2 자료의 특성 2.3 사례분석 2.4 불균형자료의 처리 2.5 특성변수의 선택 2.6 손실함수와 최적화 Chapter 3 데이터 시각화 3.1 AutoViz 3.2 Bamboolib 3.3 Plotly Chapter 4 K-Nearest Neighbors 4.1 KNN의 적용 4.2 커널분포함수 추정 Chapter 5 로지스틱 회귀 분류 5.1 적응선형뉴런 5.2 로지스틱 회귀 5.3 과대적합에 대한 규제화 5.4 Scikit을 이용한 로지스틱 회귀 Chapter 6 판별분석과 단순베이즈모형 6.1 판별분석 6.2 단순베이즈모형 6.3 Scikit learn을 이용한 LDA와 단순베이즈모형 Chapter 7 분류와 회귀나무 7.1 회귀나무 7.2 분류나무 7.3 Scikit learn을 이용한 의사결정나무 Chapter 8 써포트벡터머신 8.1 써포트벡터머신 8.2 커널 SVM 8.3 Sklearn을 이용한 SVM Chapter 9 차원축소 9.1 특잇값 분해 9.2 확률화 PCA 9.3 커널 PCA 9.4 요인분석 9.5 선형판별분석을 통한 차원축소 9.6 시각화를 위한 차원축소 9.7 Sklearn을 이용한 차원축소 Chapter 10 오차분석, 자료분할, 초모수 조절 10.1 오차분석 10.2 자료 분할 10.3 초모수 조절 10.4 교차검증 Chapter 11 회귀분석 11.1 선형회귀모형 11.2 Quantile 회귀 11.3 로버스트 회귀 11.4 SVM 회귀와 커널 SVM 회귀 11.5 규제화된 선형회귀모형 11.6 Scikit learn을 이용한 회귀분석 Chapter 12 군집 12.1 K-means 군집 12.2 계층적 군집 12.3 DBSCAN과 HDBSCAN 12.4 Scikit learn을 이용한 군집 Chapter 13 앙상블학습 13.1 Bagging, Pasting, 그리고 Random forest 13.2 앙상블학습을 위한 통계적 머신러닝의 특성 13.3 아다부스트 13.4 기울기부스팅 13.5 XGBoost 13.6 LightGBM 13.7 CatBoost 13.8 적용사례 Chapter 14 XGBoost, LightGBM, CatBoost의 비교와 특성 14.1 전통적 통계모형과의 비교: 회귀 14.2 XGBoost, LightGBM, CatBoost에서의 특성변수의 중요도와 효과 14.3 전통적 통계모형과의 비교: 분류 Chapter 15 Bagging과 Boosting 15.1 Decision Tree 15.2 Random Forest 15.3 Gradient Boosting 15.4 분류 Chapter 16 XGBoost, LightGBM, CatBoost의 초모수의 특성과 튜닝 16.1 수렴속도 비교 16.2 초모수의 비교와 튜닝 16.3 불균형자료의 처리 Chapter 17 메타모형과 모형자동화 17.1 메타모형 17.2 모형의 자동화 Chapter 18 감성분석 18.1 감성분석 18.2 파이썬을 이용한 사례 분석 참고문헌 연습문제 해설 찾아보기 |
박유성의 다른 상품