이미지 검색을 사용해 보세요
검색창 이전화면 이전화면
최근 검색어
인기 검색어

소득공제
그림으로 배우는 StatQuest 신경망 & AI 강의
머리에 쏙쏙 들어오는 딥러닝 그림책 반양장
베스트
인공지능 top100 1주
가격
30,000
10 27,000
YES포인트?
1,500원 (5%)
5만원 이상 구매 시 2천원 추가 적립
결제혜택
카드/간편결제 혜택을 확인하세요

이미 소장하고 있다면 판매해 보세요.

  •  국내배송만 가능
  •  문화비소득공제 신청가능

상세 이미지

책소개

목차

옮긴이 머리말 iii
베타리더 후기 iv

01 신경망과 AI의 기본 개념!!! 1
02 역전파를 활용한 가중치와 편향 최적화!!! 19
03 입력과 출력이 여러 개인 신경망!!! 69
04 ArgMax와 SoftMax로 출력값 간단하게 만들기!!! 83
05 크로스 엔트로피로 훈련 속도 높이기!!! 97
06 합성곱 신경망으로 이미지 분류하기!!! 119
07 순환 신경망으로 주가 예측하기!!! 133
08 장단기 메모리로 더 나은 주가 예측하기!!! 153
09 워드 임베딩으로 단어를 숫자로 변환하기!!! 171
10 Seq2seq와 인코더-디코더 모델로 언어 번역하기!!! 183
11 어텐션으로 더 나은 언어 번역하기!!! 199
12 트랜스포머로 더욱 강력한 언어 번역하기!!! 213
13 디코더-온리 트랜스포머로 대량의 텍스트 생성하기!!! 255
14 인코더-온리 트랜스포머로 분류와 클러스터링하기!!! 267
부록(학교에서 배웠겠지만 아마도 지금은 잊어버렸을 내용)!!! 277

감사의 글 354 / 참고 문헌 355 / 찾아보기 356

저자 소개2

조시 스타머

관심작가 알림신청
 

Josh Starmer

세상에서 가장 인기 있는 머신러닝 유튜브 채널 ‘StatQuest with Josh Starmer’를 운영 중이다. 2016년부터 통계, 데이터 과학, 머신러닝 개념, 알고리즘을 사람들이 이해하고 기억하기 쉽도록 독특한 시각적 그림을 통해 설명하는 StatQuest는 전 세계의 사람들이 데이터 과학 대회에서 우승하고, 시험을 통과하고, 학교를 졸업하고, 직업을 얻고 승진하는 데 도움을 주고 있다.

조시 스타머의 다른 상품

《Financial AI in Practice》(Manning, 2026 출간 예정), 《금융 AI의 이해》(제이펍, 2024), 《AI 소사이어티》(미래의창, 2022)(2022년 세종도서 교양부문 선정) 등 금융과 AI를 주제로 한 다수의 저서를 집필했다. 베이징 대학을 졸업한 후 캘리포니아 대학교 샌디에이고(UCSD)에서 국제경제 석사 학위를 받았으며, 현재 이커머스 기업의 핀테크 조직에서 수석 데이터 과학자 겸 머신러닝 알고리즘 엔지니어로 근무하고 있다. 아주대학교 인공지능대학원 겸임교수이자 세계 최대 데이터 과학 커뮤니티 캐글(Kaggle)의 그랜드 마스터로서 실무와 연
《Financial AI in Practice》(Manning, 2026 출간 예정), 《금융 AI의 이해》(제이펍, 2024), 《AI 소사이어티》(미래의창, 2022)(2022년 세종도서 교양부문 선정) 등 금융과 AI를 주제로 한 다수의 저서를 집필했다. 베이징 대학을 졸업한 후 캘리포니아 대학교 샌디에이고(UCSD)에서 국제경제 석사 학위를 받았으며, 현재 이커머스 기업의 핀테크 조직에서 수석 데이터 과학자 겸 머신러닝 알고리즘 엔지니어로 근무하고 있다. 아주대학교 인공지능대학원 겸임교수이자 세계 최대 데이터 과학 커뮤니티 캐글(Kaggle)의 그랜드 마스터로서 실무와 연구를 잇는 활동을 이어가고 있다.

김태헌의 다른 상품

품목정보

발행일
2025년 11월 13일
판형
반양장 ?
쪽수, 무게, 크기
368쪽 | 188*257*17mm
ISBN13
9791194587835

책 속으로

파이토치에서 신경망을 만들 때 가장 기본적인 요소는 텐서(Tensor)야. 텐서는 파이썬 리스트와 비슷하지만, 데이터와 가중치, 편향을 저장하는 데 사용돼. 텐서와 파이썬 리스트의 가장 큰 차이점은, 텐서에서는 모든 값이 같은 데이터 타입을 가져야 한다는 거야. 예를 들어, 정수형 텐서를 만들면 그 안의 모든 값이 정수여야 해. 또한, 텐서는 신경망에서 사용하기 최적화되어 있다는 점도 큰 차이점이야.
--- p.18

역전파는 두 단계로 이루어져 있어. 첫 번째 단계는, 각 최적화할 매개변수에 대해 미분(derivative)을 계산해. 이 미분값들의 집합을 ‘경사(gradient)’라고 불러. ‘역전파’라는 이름은 이 경사를 신경망의 출력층에서 입력층 방향으로 계산하기 때문에 붙여진 거야. / 그다음, 두 번째 단계에서는 경사 하강법(gradient descent) 또는 다른 최적화 방법을 사용해 매개변수를 조정해. 이 과정은 반복(iterative)적으로 진행되면서 최적의 값을 찾아가게 돼. 즉, 여러 작은 단계를 거쳐 점진적으로 매개변수를 개선하는 방식이야.
--- p.20

최초의 신경망은 1950년대에 만들어졌는데, 손글씨 숫자와 문자를 인식하도록 설계된 퍼셉트론이었어. 하지만 이 초기 CNN 설계는 데이터셋이 너무 작았고 컴퓨터가 너무 느려서 1990년대까지는 실제로 잘 작동하지 않았지. 그러나 운 좋게도 GPU(그래픽 처리 장치)를 연구하던 사람들이 CNN을 훨씬 빠르게 실행할 수 있다는 것을 알아냈어. GPU는 CNN 속도를 높였고, CNN은 이미지 분류를 잘하게 되었고, 우리가 현재 경험하고 있는 AI 혁명을 시작하게 된 거야.
--- p.128

최초의 인코더-디코더 모델은 LSTM을 사용했고(Sutskever et al. 2018), 입력 및 출력 시퀀스의 길이에 유연성을 허용하도록 펼쳐질 수 있었어… 그리고 숫자가 아닌 입력과 출력을
사용하여 쉽게 훈련할 수 있도록 허용하는 워드 임베딩 네트워크도 사용했지. 시퀀스-투-시퀀스 문제를 해결하기 위해 인코더-디코더 모델을 사용하는 방법을 설명할게. 그럼 같이 영어 구문을 스페인어 구문으로 번역하는 모델을 만들어보자.
--- p.184

이제 인코더-디코더 모델의 세부 사항을 알았으니, 각각 2개의 LSTM을 가진 2개의 레이어를 코딩해보자. 4개의 토큰 각각에 대해 2개의 워드 임베딩값을 생성하는 일은 nn.Embedding()으로 할 수 있어. 우리는 nn.LSTM()으로 LSTM 유닛의 스택과 레이어를 생성할 수 있어. input_size를 2로 설정하면 워드 임베딩값을 입력으로 모두 사용할 수 있고… 동일한 입력값을 받는 hidden_size를 2로 설정하고 LSTM 유닛의 스택 2개를 생성해. num_layers를 2로 설정해서 LSTM 유닛의 스택 2개를 생성하고… 마지막으로, nn.Linear()로 완전 연결 레이어를 생성할 수 있어.
--- p.198

단어 순서를 추적하는 것의 중요성을 이해하기 위해, 노말사우르스가 다음과 같이 말했다고 상상해보자… ‘스콰치가 피자를 먹는다.’ 이 경우, 스콰치는 아마 이렇게 말할 거야… “냠!!!” 반대로 노말사우르스가 이렇게 말했다고 상상해보자… ‘피자가 스콰치를 먹는다.’ 이 경우, 스콰치는 아마 이렇게 말할 거야 … “으악!!!” 이 두 문장은 정확히 동일한 단어를 사용하지만, 의미는 매우 달라. 따라서 단어 순서를 추적하는 것은 매우 중요해. 트랜스포머가 위치 인코딩으로 단어 순서를 어떻게 학습하는지 알아보자!

--- p.216

출판사 리뷰

마법 같은 인공지능을 그림으로 풀어내는 가장 친절한 입문서

복잡하고 추상적으로만 느껴지던 신경망과 인공지능의 개념을 눈앞에 그림처럼 펼쳐 보이는 책이 나왔다. StatQuest 시리즈로 전 세계 데이터 과학자와 학생들에게 사랑받아온 조시 스타머가 이번에는 신경망과 인공지능을 주제로 쉽고 직관적인 해설을 선보인다.

이 책의 가장 큰 매력은 ‘단순화가 아닌 명료화’다. 방정식과 기호를 그대로 쓰되, 그것이 어떻게 작동하는지를 그림과 비유로 풀어내 독자가 직접 눈으로 개념을 이해하게 한다. 텐서, 역전파, SoftMax, 크로스 엔트로피처럼 교과서에서는 어렵게만 보였던 개념이 차근차근 연결되면서 CNN, RNN, LSTM, 트랜스포머까지 자연스럽게 이어진다.

또한 각 장에는 파이토치(PyTorch) 튜토리얼이 포함되어 있어 단순히 이해에 그치지 않고 직접 신경망을 만들어보며 손으로 체득할 수 있다. 학교에서 배웠지만 잊어버린 수학 개념도 부록에서 그림으로 다시 짚어주어 초심자부터 실무자까지 탄탄한 기반을 다지도록 했다.

이 책은 신경망을 더 이상 ‘마법 같은 블랙박스’가 아니라 ‘눈으로 보고 손으로 만질 수 있는 도구’로 바꿔준다. 챗GPT를 비롯한 최신 AI 모델의 핵심 원리를 궁금해하는 독자에게 이 책은 직관과 이해의 즐거움을 동시에 선사할 것이다.

‘데이터계의 밥 로스’라고 불리는 조시 스타머 특유의 유머와 따뜻한 설명은 어려운 개념 앞에서 주눅 들었던 독자에게 용기를 줄 것이다. 이 책과 함께 인공지능이라는 거대한 숲을 두려움 없이 탐험해보자.

주요 내용

● 신경망과 AI의 기본 개념
● 가중치와 편향 최적화하기: 역전파
● ArgMax와 SoftMax로 출력 정리하기
● 크로스 엔트로피로 학습 속도 높이기
● 합성곱 신경망(CNN)으로 이미지 분류하기
● 순환 신경망(RNN)으로 주식 예측하기
● 장기 단기 메모리(LSTM)로 더 나은 주식 예측하기
● 워드 임베딩으로 단어를 숫자로 변환하기
● Seq2seq와 인코더-디코더 모델로 언어 번역하기
● 어텐션, 트랜스포머로 더 나은 언어 번역하기

추천평

이 책은 게임 체인저다. 간결하면서도 명확한 도식, 실용적인 코드 예제, 저자 특유의 재미있는 비유를 통해 신경망의 복잡성을 쉽게 풀어낸다. 트랜스포머, LSTM, 어텐션 메커니즘 같은 주제도 이 책을 읽은 후에는 더 이상 미스터리가 아니게 될 것이다. - 루이스 세라노(Luis Serrano) (Serrano Academy 설립자 겸 CEO, 《Grokking Machine Learning》 저자)
StatQuest 팬이라면 AI의 핵심 개념을 쉽게 소개하는 이 책을 반길 것이다. 유쾌한 만화책처럼 재미있게 읽히며, 오늘날 AI 혁명을 이끄는 수학적 원리를 친절하게 시각적으로 보여준다. - 제이 알아마르 (《핸즈온 LLM》 저자)

리뷰/한줄평2

리뷰

10.0 리뷰 총점

한줄평

첫번째 한줄평을 남겨주세요.

27,000
1 27,000