이 상품은 구매 후 지원 기기에서 예스24 eBook앱 설치 후 바로 이용 가능한 상품입니다.
■ CHAPTER 1. 환경 설정1.1 윈도우에서 환경 설정하기1.2 맥북에서 환경 설정하기1.3 리눅스에서 환경 설정하기■ CHAPTER 2. 머신러닝 개요2.1 머신러닝이란2.2 지도 학습 vs 비지도 학습2.3 머신러닝의 전반적인 과정■ CHAPTER 3. 머신러닝을 위한 선형대수3.1 선형대수와 머신러닝의 관계3.2 행렬의 기초___ 3.2.1 행렬이란___ 3.2.2 대각 행렬___ 3.2.3 전치 행렬___ 3.2.4 행렬의 덧셈, 뺄셈___ 3.2.5 행렬의 스칼라곱___ 3.2.6 행렬곱___ 3.2.7 행렬의 원소곱___ 3.2.8 행렬식___ 3.2.9 역행렬3.3 내적3.4 선형 변환3.5 랭크, 차원___ 3.5.1 벡터 공간, 기저___ 3.5.2 랭크와 차원___ 3.5.3 직교 행렬3.6 고윳값, 고유 벡터3.7 특이값 분해___ 3.7.1 닮음___ 3.7.2 직교 대각화___ 3.7.3 고윳값 분해___ 3.7.4 특이값 분해3.8 이차식 표현___ 3.8.1 이차식 개념___ 3.8.2 양정치 행렬3.9 벡터의 미분■ CHAPTER 4. 머신러닝을 위한 통계학4.1 통계학과 머신러닝의 관계4.2 확률 변수와 확률 분포___ 4.2.1 확률 변수___ 4.2.2 확률 분포4.3 모집단과 표본4.4 평균과 분산___ 4.4.1 평균___ 4.4.2 분산___ 4.4.3 평균과 분산의 성질4.5 상관관계___ 4.5.1 공분산___ 4.5.2 상관 계수4.6 균일 분포4.7 정규 분포4.8 이항 분포___ 4.8.1 베르누이 분포___ 4.8.2 이항 분포___ 4.8.3 다항 분포4.9 최대 가능도 추정4.10 최대 사후 추정___ 4.10.1 조건부 확률___ 4.10.2 베이즈 추정___ 4.10.3 최대 사후 추정■ CHAPTER 5. 최적화5.1 컨벡스 셋___ 5.1.1 직선과 선분___ 5.1.2 아핀 셋___ 5.1.3 아핀 함수 vs 선형 함수___ 5.1.4 컨벡스 셋___ 5.1.5 초평면과 반공간5.2 컨벡스 함수___ 5.2.1 컨벡스 함수의 개념___ 5.2.2 컨벡스 함수의 예___ 5.2.3 1차, 2차 미분 조건___ 5.2.4 얀센의 부등식___ 5.2.5 컨벡스 성질 보존 조건5.3 라그랑주 프리멀 함수___ 5.3.1 일반적인 최적화 문제___ 5.3.2 컨벡스 최적화 문제___ 5.3.3 라그랑주 프리멀 함수5.4 라그랑주 듀얼 함수5.5 Karush-Kuhn-Tucker(KKT) 조건5.6 머신러닝에서의 최적화 문제___ 5.6.1 최소 제곱법___ 5.6.2 제약식이 포함된 최소 제곱법5.7 뉴턴-랩슨 메소드5.8 그래디언트 디센트 옵티마이저___ 5.8.1 그래디언트 디센트 소개___ 5.8.2 확률적 그래디언트 디센트___ 5.8.3 모멘텀___ 5.8.4 네스테로프 가속 경사(Nesterov Accelerated Gradient)___ 5.8.5 Adagrad___ 5.8.6 Adadelta___ 5.8.7 RMSprop___ 5.8.8 Adam___ 5.8.9 AdaMax___ 5.8.10 Nadam■ CHAPTER 6. 머신러닝 데이터 살펴보기6.1 머신러닝에 사용할 데이터 소개___ 6.1.1 집값 예측하기___ 6.1.2 꽃 구분하기___ 6.1.3 와인 구분하기___ 6.1.4 당뇨병 예측하기___ 6.1.5 유방암 예측하기6.2 데이터 전처리___ 6.2.1 결측치 처리___ 6.2.2 클래스 라벨 설정___ 6.2.3 원-핫 인코딩___ 6.2.4 데이터 스케일링■ CHAPTER 7. 모형 평가7.1 오버피팅과 언더피팅7.2 크로스-밸리데이션7.3 파이프라인7.4 그리드 서치7.5 손실 함수와 비용 함수___ 7.5.1 손실 함수와 비용 함수의 개념___ 7.5.2 L1 손실 함수___ 7.5.3 L2 손실 함수___ 7.5.4 엔트로피___ 7.5.5 Negative Log Likelihood(NLL)7.6 모형 성능 평가___ 7.6.1 모형 성능 평가에 필요한 개념___ 7.6.2 분류 문제에서의 성능 평가___ 7.6.3 회귀 문제에서의 성능 평가___ 7.6.4 군집 문제에서의 성능 평가■ CHAPTER 8. 지도 학습8.1 지도 학습 개요8.2 사이킷런 소개8.3 k-최근접 이웃 알고리즘___ 8.3.1 k-최근접 이웃 알고리즘의 개념___ 8.3.2 k-최근접 이웃 실습8.4 선형 회귀 분석___ 8.4.1 선형 회귀 분석의 개념___ 8.4.2 릿지 회귀 분석(L2 제약식)___ 8.4.3 라쏘 회귀 분석(L1 제약식)___ 8.4.4 엘라스틱 넷___ 8.4.5 선형 회귀 분석 실습8.5 로지스틱 회귀 분석___ 8.5.1 로지스틱 회귀 분석의 개념___ 8.5.2 로지스틱 회귀 분석 실습8.6 나이브 베이즈___ 8.6.1 나이브 베이즈의 개념___ 8.6.2 나이브 베이즈 실습8.7 의사 결정 나무___ 8.7.1 의사 결정 나무의 개념___ 8.7.2 엔트로피___ 8.7.3 지니 계수___ 8.7.4 회귀 나무___ 8.7.5 의사 결정 나무 실습8.8 서포트 벡터 머신___ 8.8.1 서포트 벡터 머신의 개념___ 8.8.2 소프트 마진___ 8.8.3 커널 서포트 벡터 머신___ 8.8.4 서포트 벡터 회귀___ 8.8.5 서포트 벡터 머신 실습8.9 크로스 밸리데이션 실습■ CHAPTER 9. 앙상블 학습9.1 앙상블 학습 개념9.2 보팅___ 9.2.1 보팅의 개념___ 9.2.2 보팅 실습9.3 배깅과 랜덤 포레스트___ 9.3.1 독립적 앙상블 방법___ 9.3.2 배깅과 랜덤 포레스트의 개념___ 9.3.3 랜덤 포레스트 실습___ 9.3.4 배깅 실습9.4 부스팅___ 9.4.1 의존적 앙상블 방법___ 9.4.2 에이다 부스트 개념 설명___ 9.4.3 에이다 부스트 실습___ 9.4.4 그래디언트 부스팅 개념 설명___ 9.4.5 그래디언트 부스팅 실습9.5 스태킹___ 9.5.1 스태킹의 개념___ 9.5.2 스태킹 실습■ CHAPTER 10. 차원 축소10.1 차원 축소 개념___ 10.1.1 차원 축소하는 이유___ 10.1.2 차원의 저주10.2 주성분 분석___ 10.2.1 주성분 분석의 개념___ 10.2.2 주성분 분석 실습10.3 커널 PCA___ 10.3.1 커널 PCA의 개념___ 10.3.2 커널 PCA 실습10.4 LDA___ 10.4.1 LDA의 개념___ 10.4.2 LDA의 이론적 배경___ 10.4.3 LDA 실습10.5 LLE___ 10.5.1 LLE의 개념___ 10.5.2 LLE 실습10.6 비음수 행렬 분해___ 10.6.1 비음수 행렬 분해의 개념___ 10.6.2 비용 함수___ 10.6.3 비음수 행렬 분해 실습■ CHAPTER 11. 비지도 학습11.1 비지도 학습 개요11.2 K-평균 클러스터링___ 11.2.1 K-평균 클러스터링의 개념___ 11.2.2 K-평균 클러스터링 실습11.3 계층 클러스터링___ 11.3.1 계층 클러스터링의 개념___ 11.3.2 단일 연결___ 11.3.3 완전 연결___ 11.3.4 Ward’s 계층 클러스터링___ 11.3.5 계층 클러스터링 실습11.4 DBSCAN___ 11.4.1 DBSCAN의 개념___ 11.4.2 DBSCAN 알고리즘___ 11.4.3 DBSCAN 실습11.5 가우시안 혼합 모형___ 11.5.1 가우시안 혼합 모형의 개념 설명___ 11.5.2 EM 알고리즘___ 11.5.3 가우시안 혼합 모형 실습■ CHAPTER 12. 딥러닝12.1 딥러닝 소개12.2 퍼셉트론, 딥러닝의 기본___ 12.2.1 퍼셉트론의 개념___ 12.2.2 퍼셉트론으로 분류하기___ 12.2.3 퍼셉트론 실습12.3 인공 신경망으로 하는 딥러닝___ 12.3.1 신경망의 개념___ 12.3.2 오차 역전파___ 12.3.3 활성화 함수___ 12.3.4 배치 정규화___ 12.3.5 드롭아웃___ 12.3.6 텐서플로 2.0 소개___ 12.3.7 분류 신경망 실습___ 12.3.8 회귀 신경망 실습12.4 합성곱 신경망(CNN)___ 12.4.1 합성곱 신경망의 개념___ 12.4.2 패딩___ 12.4.3 스트라이드___ 12.4.4 풀링___ 12.4.5 고차원 데이터 합성곱___ 12.4.6 합성곱 신경망 실습12.5 순환 신경망(RNN)___ 12.5.1 순환 신경망의 개념___ 12.5.2 LSTM___ 12.5.3 GRU___ 12.5.4 순환 신경망 실습12.6 오토 인코더(Auto-Encoder)___ 12.6.1 오토 인코더 개념___ 12.6.2 오토 인코더 실습12.7 자연어 처리___ 12.7.1 단어의 토큰화___ 12.7.2 단어를 벡터로 변환___ 12.7.3 단어 임베딩___ 12.7.4 seq2seq 모형___ 12.7.5 어텐션___ 12.7.6 자연어 처리 실습12.8 적대적 생성 신경망(GAN)___ 12.8.1 적대적 생성 신경망의 개념___ 12.8.2 적대적 생성 신경망 알고리즘___ 12.8.3 적대적 생성 신경망 실습
|
저장철원
관심작가 알림신청장철원의 다른 상품
머신러닝과 필연적 관계인 ‘수학’
수식이 어려운 당신에게 꼭 필요한 책! 머신러닝을 이해하기 위해서는 머신러닝을 근본적으로 떠받치고 있는 선형대수와 통계학, 최적화 개념에서부터 출발해야 한다. 『선형대수와 통계학으로 배우는 머신러닝 with 파이썬』은 이러한 개념을 다룰 때 수식 표현을 사용하고 코드보다 수학적인 지식을 먼저 서술함으로써, 머신러닝 알고리즘마다 원리를 이해하는 것을 목적으로 한다. 또한 ‘책에 쓰인 수학 기호’를 정리한 표를 통해 수식 이해에 어려움을 느끼는 독자의 진입 장벽을 낮추었다. 따라서 선형대수나 통계학에 대한 지식이 부족한 분들도 수학적 원리를 이해하며 기초를 탄탄히 쌓기에 큰 도움이 될 것이다. 소스 코드 다운로드 https://github.com/bjpublic/MachineLearning 베타리더의 한 마디 내가 공부할 때도 이런 책이 있었으면 그렇게 헤매지 않았을 텐데! 이 책을 통해 데이터 과학이라는 이름 아래에 모인 여러 학문에서 나온 지식의 연관성을 구체적으로 알 수 있습니다. _김민성 님 머신러닝을 공부하고 싶었지만, 수학적 기초 때문에 망설였던 분들이나 알고리즘에 사용되는 상세한 내용이 궁금한 분들에게 큰 도움이 될 것입니다. _류회성 님 책을 읽으면서 5년만 젊었으면 좋겠다는 생각이 들었습니다. 5년간의 박사과정에서 필요했던 지식이 모두 담겨 있습니다. 어색한 번역 투의 글이 아닌 한국어책이 나온 건 생명정보학 전공자로서 매우 기쁜 일입니다. _오세진 님 이 책을 읽으면서 인공지능의 기본이 되는 수학과 통계학에 무지한 상태로 학습을 이어 갔었다는 자기반성을 하게 되었습니다. 수학적인 원리 이해에 어려움을 겪고 있는 많은 분에게 필요한 책입니다. _이진 님 이 책은 자신의 전문 분야에 대한 연구 또는 업무 능력을 한 단계 높여 줄 것입니다. 머신러닝이 익숙하지 않은 분도 통계학을 통해 머신러닝을 더욱 잘 이해하는 계기가 될 것입니다. _이현훈 님 |