이미 소장하고 있다면 판매해 보세요.
|
옮긴이 머리말 iii
베타리더 후기 iv 01 신경망과 AI의 기본 개념!!! 1 02 역전파를 활용한 가중치와 편향 최적화!!! 19 03 입력과 출력이 여러 개인 신경망!!! 69 04 ArgMax와 SoftMax로 출력값 간단하게 만들기!!! 83 05 크로스 엔트로피로 훈련 속도 높이기!!! 97 06 합성곱 신경망으로 이미지 분류하기!!! 119 07 순환 신경망으로 주가 예측하기!!! 133 08 장단기 메모리로 더 나은 주가 예측하기!!! 153 09 워드 임베딩으로 단어를 숫자로 변환하기!!! 171 10 Seq2seq와 인코더-디코더 모델로 언어 번역하기!!! 183 11 어텐션으로 더 나은 언어 번역하기!!! 199 12 트랜스포머로 더욱 강력한 언어 번역하기!!! 213 13 디코더-온리 트랜스포머로 대량의 텍스트 생성하기!!! 255 14 인코더-온리 트랜스포머로 분류와 클러스터링하기!!! 267 부록(학교에서 배웠겠지만 아마도 지금은 잊어버렸을 내용)!!! 277 감사의 글 354 / 참고 문헌 355 / 찾아보기 356 |
Josh Starmer
조시 스타머의 다른 상품
김태헌의 다른 상품
|
파이토치에서 신경망을 만들 때 가장 기본적인 요소는 텐서(Tensor)야. 텐서는 파이썬 리스트와 비슷하지만, 데이터와 가중치, 편향을 저장하는 데 사용돼. 텐서와 파이썬 리스트의 가장 큰 차이점은, 텐서에서는 모든 값이 같은 데이터 타입을 가져야 한다는 거야. 예를 들어, 정수형 텐서를 만들면 그 안의 모든 값이 정수여야 해. 또한, 텐서는 신경망에서 사용하기 최적화되어 있다는 점도 큰 차이점이야.
--- p.18 역전파는 두 단계로 이루어져 있어. 첫 번째 단계는, 각 최적화할 매개변수에 대해 미분(derivative)을 계산해. 이 미분값들의 집합을 ‘경사(gradient)’라고 불러. ‘역전파’라는 이름은 이 경사를 신경망의 출력층에서 입력층 방향으로 계산하기 때문에 붙여진 거야. / 그다음, 두 번째 단계에서는 경사 하강법(gradient descent) 또는 다른 최적화 방법을 사용해 매개변수를 조정해. 이 과정은 반복(iterative)적으로 진행되면서 최적의 값을 찾아가게 돼. 즉, 여러 작은 단계를 거쳐 점진적으로 매개변수를 개선하는 방식이야. --- p.20 최초의 신경망은 1950년대에 만들어졌는데, 손글씨 숫자와 문자를 인식하도록 설계된 퍼셉트론이었어. 하지만 이 초기 CNN 설계는 데이터셋이 너무 작았고 컴퓨터가 너무 느려서 1990년대까지는 실제로 잘 작동하지 않았지. 그러나 운 좋게도 GPU(그래픽 처리 장치)를 연구하던 사람들이 CNN을 훨씬 빠르게 실행할 수 있다는 것을 알아냈어. GPU는 CNN 속도를 높였고, CNN은 이미지 분류를 잘하게 되었고, 우리가 현재 경험하고 있는 AI 혁명을 시작하게 된 거야. --- p.128 최초의 인코더-디코더 모델은 LSTM을 사용했고(Sutskever et al. 2018), 입력 및 출력 시퀀스의 길이에 유연성을 허용하도록 펼쳐질 수 있었어… 그리고 숫자가 아닌 입력과 출력을 사용하여 쉽게 훈련할 수 있도록 허용하는 워드 임베딩 네트워크도 사용했지. 시퀀스-투-시퀀스 문제를 해결하기 위해 인코더-디코더 모델을 사용하는 방법을 설명할게. 그럼 같이 영어 구문을 스페인어 구문으로 번역하는 모델을 만들어보자. --- p.184 이제 인코더-디코더 모델의 세부 사항을 알았으니, 각각 2개의 LSTM을 가진 2개의 레이어를 코딩해보자. 4개의 토큰 각각에 대해 2개의 워드 임베딩값을 생성하는 일은 nn.Embedding()으로 할 수 있어. 우리는 nn.LSTM()으로 LSTM 유닛의 스택과 레이어를 생성할 수 있어. input_size를 2로 설정하면 워드 임베딩값을 입력으로 모두 사용할 수 있고… 동일한 입력값을 받는 hidden_size를 2로 설정하고 LSTM 유닛의 스택 2개를 생성해. num_layers를 2로 설정해서 LSTM 유닛의 스택 2개를 생성하고… 마지막으로, nn.Linear()로 완전 연결 레이어를 생성할 수 있어. --- p.198 단어 순서를 추적하는 것의 중요성을 이해하기 위해, 노말사우르스가 다음과 같이 말했다고 상상해보자… ‘스콰치가 피자를 먹는다.’ 이 경우, 스콰치는 아마 이렇게 말할 거야… “냠!!!” 반대로 노말사우르스가 이렇게 말했다고 상상해보자… ‘피자가 스콰치를 먹는다.’ 이 경우, 스콰치는 아마 이렇게 말할 거야 … “으악!!!” 이 두 문장은 정확히 동일한 단어를 사용하지만, 의미는 매우 달라. 따라서 단어 순서를 추적하는 것은 매우 중요해. 트랜스포머가 위치 인코딩으로 단어 순서를 어떻게 학습하는지 알아보자! --- p.216 |
|
마법 같은 인공지능을 그림으로 풀어내는 가장 친절한 입문서
복잡하고 추상적으로만 느껴지던 신경망과 인공지능의 개념을 눈앞에 그림처럼 펼쳐 보이는 책이 나왔다. StatQuest 시리즈로 전 세계 데이터 과학자와 학생들에게 사랑받아온 조시 스타머가 이번에는 신경망과 인공지능을 주제로 쉽고 직관적인 해설을 선보인다. 이 책의 가장 큰 매력은 ‘단순화가 아닌 명료화’다. 방정식과 기호를 그대로 쓰되, 그것이 어떻게 작동하는지를 그림과 비유로 풀어내 독자가 직접 눈으로 개념을 이해하게 한다. 텐서, 역전파, SoftMax, 크로스 엔트로피처럼 교과서에서는 어렵게만 보였던 개념이 차근차근 연결되면서 CNN, RNN, LSTM, 트랜스포머까지 자연스럽게 이어진다. 또한 각 장에는 파이토치(PyTorch) 튜토리얼이 포함되어 있어 단순히 이해에 그치지 않고 직접 신경망을 만들어보며 손으로 체득할 수 있다. 학교에서 배웠지만 잊어버린 수학 개념도 부록에서 그림으로 다시 짚어주어 초심자부터 실무자까지 탄탄한 기반을 다지도록 했다. 이 책은 신경망을 더 이상 ‘마법 같은 블랙박스’가 아니라 ‘눈으로 보고 손으로 만질 수 있는 도구’로 바꿔준다. 챗GPT를 비롯한 최신 AI 모델의 핵심 원리를 궁금해하는 독자에게 이 책은 직관과 이해의 즐거움을 동시에 선사할 것이다. ‘데이터계의 밥 로스’라고 불리는 조시 스타머 특유의 유머와 따뜻한 설명은 어려운 개념 앞에서 주눅 들었던 독자에게 용기를 줄 것이다. 이 책과 함께 인공지능이라는 거대한 숲을 두려움 없이 탐험해보자. 주요 내용 ● 신경망과 AI의 기본 개념 ● 가중치와 편향 최적화하기: 역전파 ● ArgMax와 SoftMax로 출력 정리하기 ● 크로스 엔트로피로 학습 속도 높이기 ● 합성곱 신경망(CNN)으로 이미지 분류하기 ● 순환 신경망(RNN)으로 주식 예측하기 ● 장기 단기 메모리(LSTM)로 더 나은 주식 예측하기 ● 워드 임베딩으로 단어를 숫자로 변환하기 ● Seq2seq와 인코더-디코더 모델로 언어 번역하기 ● 어텐션, 트랜스포머로 더 나은 언어 번역하기 |
|
이 책은 게임 체인저다. 간결하면서도 명확한 도식, 실용적인 코드 예제, 저자 특유의 재미있는 비유를 통해 신경망의 복잡성을 쉽게 풀어낸다. 트랜스포머, LSTM, 어텐션 메커니즘 같은 주제도 이 책을 읽은 후에는 더 이상 미스터리가 아니게 될 것이다. - 루이스 세라노(Luis Serrano) (Serrano Academy 설립자 겸 CEO, 《Grokking Machine Learning》 저자)
|
|
StatQuest 팬이라면 AI의 핵심 개념을 쉽게 소개하는 이 책을 반길 것이다. 유쾌한 만화책처럼 재미있게 읽히며, 오늘날 AI 혁명을 이끄는 수학적 원리를 친절하게 시각적으로 보여준다. - 제이 알아마르 (《핸즈온 LLM》 저자)
|