이미 소장하고 있다면 판매해 보세요.
|
지은이·옮긴이 소개 xi
옮긴이 머리말 xiii 추천의 글 xv 베타리더 후기 xvii 추천사 xix 시작하며 xxii 감사의 글 xxvii 이 책에 대하여 xxviii CHAPTER 1 LLM 소개 1 1.1 언어 모델의 짧은 역사 1 1.2 LLM이란 무엇인가? 2 1.3 LLM의 기본 구성 요소 3 1.4 실습 ① LLM을 활용한 번역(GPT-3.5 API) 19 1.5 실습 ② 퓨샷 학습을 통한 LLM 출력 제어 20 1.6 요약 22 CHAPTER 2 LLM 아키텍처와 환경 23 2.1 트랜스포머 이해하기 23 2.2 트랜스포머 모델의 설계와 선택 33 2.3 트랜스포머 아키텍처 최적화 기법 41 2.4 GPT 아키텍처 43 2.5 대형 멀티모달 모델 소개 46 2.6 상용 모델 vs. 공개 모델 vs. 오픈소스 언어 모델 52 2.7 LLM의 응용 및 사용 사례 59 2.8 요약 67 CHAPTER 3 LLM의 실제 응용 69 3.1 환각과 편향 이해하기 69 3.2 LLM 출력에서 환각을 줄이는 방법 71 3.3 LLM 성능 평가 79 3.4 요약 84 CHAPTER 4 프롬프트 엔지니어링 소개 86 4.1 프롬프팅과 프롬프트 엔지니어링 86 4.2 프롬프트 테크닉 91 4.3 프롬프트 인젝션과 보안 97 4.4 요약 100 CHAPTER 5 RAG 102 5.1 왜 RAG인가? 102 5.2 밑바닥부터 시작하는 기본 RAG 파이프라인 구축 106 5.3 요약 119 CHAPTER 6 LangChain 및 LlamaIndex 소개 120 6.1 LLM 프레임워크 120 6.2 LangChain 소개 121 6.3 실습 ① LangChain을 사용한 LLM 기반 애플리케이션 구축 126 6.4 실습 ② 뉴스 기사 요약기 구축 130 6.5 LlamaIndex 소개 137 6.6 LangChain vs. LlamaIndex vs. OpenAI Assistant 145 6.7 요약 147 CHAPTER 7 LangChain을 사용한 프롬프트 작성 148 7.1 LangChain 프롬프트 템플릿이란 148 7.2 퓨샷 프롬프트와 예시 선택기 156 7.3 LangChain에서 체인이란 163 7.4 실습 ① 출력 파서를 사용한 출력 관리 171 7.5 실습 ② 뉴스 기사 요약기 개선 183 7.6 실습 ③ 텍스트 데이터를 활용한 지식 그래프 생성: 숨겨진 연결 고리 발견하기 191 7.7 요약 197 CHAPTER 8 인덱스, 검색기, 그리고 데이터 준비 199 8.1 LangChain의 인덱스와 검색기 199 8.2 데이터 수집 205 8.3 텍스트 분할기 209 8.4 유사도 검색과 벡터 임베딩 219 8.5 실습 ① 고객 지원 Q&A 챗봇 225 8.6 실습 ② Whisper와 LangChain을 이용한 유튜브 비디오 요약기 232 8.7 실습 ③ 지식 베이스를 위한 음성 비서 243 8.8 실습 ④ 자기 비판 체인을 사용한 원치 않는 출력 방지 255 8.9 실습 ⑤ 고객 서비스 챗봇에서 부적절한 출력 방지 260 8.10 요약 265 CHAPTER 9 고급 RAG 268 9.1 개념 증명에서 제품으로: RAG 시스템의 도전 과제 268 9.2 고급 RAG 기법과 LlamaIndex 269 9.3 RAG의 지표 및 평가 284 9.4 LangChain, LangSmith 및 LangChain Hub 299 9.5 요약 304 CHAPTER 10 에이전트 306 10.1 에이전트: 추론 엔진으로서의 대형 모델 306 10.2 AutoGPT와 BabyAGI 한 눈에 보기 312 10.3 LangChain의 에이전트 시뮬레이션 프로젝트 327 10.4 실습 ① 분석 보고서 작성 에이전트 구축 332 10.5 실습 ② LlamaIndex를 사용한 데이터베이스 쿼리 및 요약 340 10.6 실습 ③ OpenAI 어시스턴트를 활용한 에이전트 구축 350 10.7 실습 ④ LangChain OpenGPTs 354 10.8 실습 ⑤ 멀티모달 금융 문서 분석기로 PDF 파일 분석하기 357 10.9 요약 371 CHAPTER 11 파인튜닝 372 11.1 파인튜닝에 대한 이해 372 11.2 LoRA 373 11.3 실습 ① LoRA를 활용한 SFT 376 11.4 실습 ② SFT 및 LoRA를 활용한 금융 감정 분석 389 11.5 실습 ③ 의료 데이터를 활용한 Cohere LLM 파인튜닝 398 11.6 RLHF 408 11.7 실습 ④ RLHF를 통한 LLM 성능 향상 411 11.8 요약 433 CHAPTER 12 배포 및 최적화 435 12.1 모델 증류와 교사-학생 모델 435 12.2 LLM 배포 최적화: 양자화, 가지치기, 추측적 디코딩 441 12.3 실습: GCP에서 CPU로 양자화된 LLM 배포하기 452 12.4 오픈소스 LLM을 클라우드 환경에 배포하기 461 12.5 요약 463 나가며 465 용어집 468 찾아보기 472 |
Louis-Francois Bouchard
Louie Peters
김태헌의 다른 상품
|
GPT 아키텍처는 다양한 목적에 맞게 여러 버전이 존재한다. 이후 장에서 프로덕션 환경에 더 적합한 다른 라이브러리들을 다룰 예정이지만, 여기서는 안드레이 카르파트히가 개발한 OpenAI의 GPT-2 모델의 간소화 버전, minGPT를 소개한다. minGPT는 저장소에서 직접 구현하고 실험해볼 수 있는 가벼운 버전의 GPT 모델이다. / minGPT는 GPT 구조를 간단히 설명하기 위해 개발된 교육용 도구로, 약 300줄의 코드로 축약되었으며 파이토치 라이브러리를 사용한다. 단순한 구조 덕분에 GPT 계열 모델의 내부 작동 방식을 깊이 이해하는 데 유용하며, 코드에 각 과정에 대한 명확한 설명이 포함되어 있어 학습에 도움이 된다.
--- p.45 ICL(문맥 학습, in-context learning)은 프롬프트에 예제나 시연을 포함시켜 모델이 학습하는 접근 방식이다. 퓨샷 프롬프팅(few-shot prompting)은 문맥 학습의 하위 집합으로, 모델에 관련된 예제나 시연의 작은 집합을 제공한다. 이 전략은 모델이 일반화하고 더 복잡한 작업에서 성능을 향상시키는 데 도움을 준다. 퓨샷 프롬프팅은 언어 모델이 소수의 샘플로부터 학습할 수 있게 한다. 이 적응력 덕분에 모델은 소수의 훈련 샘플만으로 다양한 작업을 처리할 수 있다. / 제로숏 프롬프팅에서는 모델이 완전히 새로운 작업에 대해 출력을 생성하지만, 퓨샷 프롬프팅은 문맥 내 예제를 활용해 성능을 향상시킨다. 이 기법에서 프롬프트는 종종 여러 샘플이나 입력과 그에 따른 답변으로 구성된다. 언어 모델은 이러한 예제들로부터 학습하고 유사한 질문에 답변하는 데 이를 적용한다. --- p.92 RAG 파이프라인 설정의 마지막 단계는 프롬프트를 준비해 LLM이 내재된 지식에 의존하지 않고 검색된 정보를 활용하도록 유도하는 것이다. 이 단계에서 모델은 편집자의 역할을 하며, 주어진 정보를 검토하고 프롬프트에 적합하게 답변을 정리하거나 생성한다. 마치 변호사가 모든 답변을 암기하고 있지 않을 때 질문에 답하기 위해 문서, 책, 데이터베이스를 찾아보고 정보를 ‘소화’해 답변을 제시하는 것과 유사하다. 변호사처럼 LLM이 주어진 리소스를 참조하게 해 오류(환각)를 줄이고자 하는 경우가 많다. / 이 작업을 위해 system_prompt와 user_prompt 두 가지 인수를 조정해야 한다. system_prompt의 주요 변경 사항은 모델이 제공된 특정 청크 정보를 이용해 질문에 답하도록 지시하는 것이다. user_prompt는 모델이 〈START_OF_CONTEXT〉와 〈END_OF_CONTEXT〉 태그 사이에 제공된 데이터만을 참조해 답변하도록 신호를 보낸다. 여기서 .join() 메서드를 사용해 검색된 청크들을 하나의 긴 문자열로 연결하고, .format() 함수를 통해 prompt 변수의 첫 번째와 두 번째 { } 자리 표시자를 각각 결합된 콘텍스트와 사용자의 질문으로 대체한다. --- pp.115-116 LlamaIndex에서는 데이터 수집 후 문서를 처리 프레임워크 내에서 변환한다. 이 과정은 문서를 더 작고 상세한 단위인 Node 객체로 변환한다. 노드는 원본 문서에서 파생되며 주요 콘텐츠, 메타 데이터, 콘텍스트 세부 정보를 포함한다. LlamaIndex에는 문서 콘텐츠를 자동으로 구조화된 노드로 변환하는 NodeParser 클래스가 포함되어 있다. SimpleNodeParser를 사용해 문서 객체 리스트를 노드 객체로 변환하였다. --- p.139 RAG에서 쿼리 생성(query construction)은 사용자의 질문을 다양한 데이터 소스에 호환되는 형식으로 변환하는 과정이다. 이는 비정형 데이터의 경우 질문을 벡터 형식으로 변환해 소스 문서의 벡터 표현과 비교하고, 가장 관련성 높은 청크를 식별할 수 있게 한다. 또한 SQL과 같은 언어로 쿼리를 작성해 데이터베이스와 같은 구조화된 데이터에도 적용될 수 있다. / 핵심 아이디어는 데이터의 내재된 구조를 활용해 사용자 쿼리에 답하는 것이다. 예를 들어 ‘movies about aliens in the year 1980(1980년 외계인에 관한 영화)’라는 쿼리는 ‘aliens(외계인)’과 같은 의미론적 요소(벡터 저장소를 통해 더 잘 검색된다)와 ‘year == 1980’과 같은 구조적 요소를 결합한다. 이 과정은 자연어 쿼리를 SQL(관계형 데이터베이스, structured query language)이나 사이퍼(그래프 데이터베이스, Cypher)와 같은 데이터베이스의 특정 쿼리 언어로 변환하는 것을 포함한다. --- pp.272-273 RLHF의 마지막 단계는 앞서 개발한 모델들을 통합하는 것이다. 이 단계에서는 보상 모델을 사용해 파인튜닝된 모델을 인간 피드백에 더 가깝게 정렬하도록 한다. 학습 루프 동안 사용자 정의 프롬프트가 파인튜닝된 OPT 모델에서 응답을 이끌어내며, 이 응답은 보상 모델을 통해 평가된다. 평가 점수는 사람이 생성할 가능성이 높은 응답과의 유사성을 기준으로 부여된다. --- p.423 |
|
LLM으로 구현하는 실무형 AI 서비스 개발
LLM은 빠르게 진화하며 새로운 모델과 기법이 끊임없이 등장하고 있지만 지금 사용되는 개발 도구와 기술이 더 발전된 AI 모델을 다루는 기본 토대가 된다. 이 토대를 깊이 이해한 사람이 앞으로 나올 더 강력한 모델도 가장 효과적으로 활용할 수 있다. AI는 자연어 처리뿐 아니라 알고리즘 설명, 소프트웨어 개발, 학술 개념 해설, 생성형 이미지 제작 등 다양한 분야에서 활용되며, 산업 전반에 혁신을 불러오고 있다. 이 책은 LLM과 자연어 처리의 최신 동향을 소개하고, 모델의 작동 원리를 깊이 있게 설명하면서도 실무에 바로 쓸 수 있는 방법을 제시한다. 특히 RAG 파이프라인 구축 프로젝트를 통해 텍스트를 처리하고 맥락에 맞게 상호작용하는 최신 기술을 직접 다룬다. LLM을 특정 용도에 맞춰 정확성과 신뢰성을 높이는 필수 기술 스택인 프롬프트 엔지니어링, 파인튜닝, RAG를 중심으로, 실제 서비스에 적용 가능한 제품 제작 과정을 구체적으로 안내한다. 단순한 개념 설명을 넘어서 한계를 극복하는 전략과 실전 구현 방법까지 제시해 개발자가 직접 애플리케이션과 제품을 완성할 수 있도록 돕는다. 총 12장으로 구성된 이 책은 LLM의 핵심 개념부터 실무 적용까지 체계적으로 다룬다. 1장은 확장 법칙, 콘텍스트 크기, 창발적 능력 등 LLM이 강력한 이유를 살펴보고, 2장은 트랜스포머 아키텍처와 각 레이어 구성 요소를 중심으로 다양한 모델 설계를 설명한다. 3장은 환각, 레이턴시, 컴퓨팅 제약 같은 한계를 분석하고, 4장은 퓨샷 학습과 체인 프롬프트 등 프롬프트 기술을 코드 예제와 함께 실습한다. 5장은 RAG 기본 원칙과 벡터 데이터베이스 개념, 데이터 저장 및 검색 방법을 다루고, 6장은 LangChain과 LlamaIndex로 LLM 작업을 단순화하는 방법을 설명한다. 7장은 다양한 프롬프트 유형과 응답 제어, 추적 기법을, 8장은 인덱스 생성, 데이터 분할, 저장 등 검색 최적화를 다룬다. 9장은 고급 RAG 기법과 잠재적 문제 해결, 챗봇 성능 평가를 다루며 LangSmith 활용법까지 함께 소개한다. 이어 10장은 외부 환경과 상호작용하는 지능형 에이전트를, 11장은 LoRA와 QLoRA를 활용한 파인튜닝 전략을 다룬다. 마지막 12장에서는 모델 증류, 양자화, 가지치기 등으로 성능을 유지하면서 비용을 줄이는 최적화 방법을 제안한다. 각 장에는 RAG 기반 뉴스 요약기, 고객 지원 Q&A 챗봇, Whisper와 LangChain을 활용한 유튜브 영상 요약기, PDF 금융 문서 분석기, LoRA 기반 금융 감정 분석 등 실제 구현이 가능한 19개의 프로젝트가 포함되어 있으며, 개념을 실습과 함께 익히며 실무에 바로 적용할 수 있다. 시간이 지나 모델이나 구현 방식이 바뀌더라도 이 책에서 다루는 원칙과 접근 방법은 여전히 유효하다. 지금 필요한 실무 지식일 뿐 아니라 앞으로 등장할 더 발전된 모델을 다루는 데도 그대로 활용할 수 있을 것이다. 주요 내용 ● LLM 구조 이해와 모델 선택 전략 ● 프롬프트 엔지니어링 및 응답 제어 기법 ● 벡터 검색 기반 RAG 파이프라인 구축 ● 랭체인, 라마인덱스 활용 ● LoRA, QLoRA 기반 파인튜닝 ● AutoGPT, BabyAGI 등 에이전트 기술 ● 랭스미스를 활용한 평가 및 디버깅 ● 양자화, 모델 경량화, 최적화, 배포 전략 이 책에서 직접 해보는 19가지 실전 LLM 프로젝트 ● LLM을 활용한 번역 ● 퓨샷 학습을 통한 LLM 출력 제어 ● LangChain을 사용한 LLM 기반 애플리케이션 구축 ● 뉴스 기사 요약기 구축 ● 출력 파서를 사용한 출력 관리 ● 뉴스 기사 요약기 개선 ● 텍스트 데이터를 활용한 지식 그래프 생성 ● 고객 지원 Q&A 챗봇 ● Whisper와 LangChain을 이용한 유튜브 비디오 요약기 ● 자기 비판 체인을 사용한 원치 않는 출력 방지 ● 고객 서비스 챗봇에서 부적절한 출력 방지 ● 분석 보고서 작성 에이전트 구축 ● LlamaIndex를 사용한 데이터베이스 쿼리 및 요약 ● OpenAI 어시스턴트를 활용한 에이전트 구축 ● LangChain OpenGPTs ● 멀티모달 금융 문서 분석기로 PDF 파일 분석 ● LoRA를 활용한 SFT ● SFT 및 LoRA를 활용한 금융 감정 분석 ● 의료 데이터를 활용한 Cohere LLM 파인튜닝 ● RLHF를 통한 LLM 성능 향상 |
|
생성형 AI를 활용해 애플리케이션을 만드는 과정 자체를 단순히 LLM에 대한 표준적인 API 호출로 끝낼 수 있으면 얼마나 좋을까요? 하지만 상용화를 위해서는 단순 API 호출을 넘어서 프로덕션과 엔지니어링 관점에서 충분히 고민하고 실행하고 경험을 얻을 필요가 있습니다. 생성형 AI는 다양성과 발전 가능성은 높지만, 역사가 짧은 관계로 안정성과 표준적인 개발 방법론은 아직 부족한 상황입니다. 이 책은 바로 이런 어려움을 해소하기 위해 RAG와 에이전트를 만들기 위한 기초 지식은 물론이고 실제 LangChain과 LlamaIndex를 활용한 구현 방법을 다룹니다. 그뿐만 아니라 최적화, 평가, 튜닝, 배포까지 다루며, 엔지니어링 측면에서 상용 제품을 만드는 개발자들에게 현실적인 조언을 아끼지 않습니다. 생성형 AI를 처음 다루는 분들은 물론이고 어느 정도 학습한 분들도 이 책을 통해 실무형 엔지니어로 거듭날 수 있기를 바랍니다. - 박재호 (레인보우브레인 CTO, ‘컴퓨터 vs 책’ 블로그 운영자 )
|
|
얼마 전 OpenAI의 서비스가 장애로 중단되자 많은 사람들이 불편을 겪었습니다. 그동안 의지했던 ChatGPT가 없어 일하기 어렵다고 불평하는 말도 들었습니다. 이 기술이 불과 몇 년 만에 너무 빠른 속도로 발전하고 있어서 두렵기도 하지만 LLM이 이미 우리의 생활과 뗄 수 없는 지경에 이르렀다는 증거입니다. 반대로 이런 서비스를 안정적으로 제공하는 것이 (심지어 OpenAI에도) 얼마나 어렵고 또 중요한지 생생하게 보여주는 사례이기도 합니다. 때마침 제품 수준의 RAG 시스템을 구축하고 배포하기 위해 꼭 배워야 할 내용을 담은 책이 출간되어 기쁩니다. 이 책을 배낭에 넣고 인공지능 애플리케이션을 만들기 위한 모험을 함께 떠나보시죠! - 박해선 (구글 AI/클라우드 GDEGoogle Developers Expert, 마이크로소프트 AI MVP)
|
|
이 책은 LLM 모델링과 API 사용법은 물론 배포 및 최적화 전략까지 AI 개발에 필수적인 내용을 빠짐없이 다룹니다. 프롬프트 엔지니어링, 파인튜닝, RAG, 자율 에이전트 구현 등 LLM 개발에 필요한 지식을 알기 쉬우면서도 군더더기 없이 설명하는 것이 이 책의 가장 큰 미덕입니다. 인정받는 AI 개발자가 되고 싶은 독자라면 이 책을 통해 기본기를 확실하게 다지기를 바랍니다. - 이승우 (EpicAI 대표, 보험사 AI 컨설턴트)
|
|
이 책의 장점은 NLP의 기초 개념부터 시작해 최신 VLM 기술까지 폭넓게 다루면서도 각 주제를 매우 쉽고 명확하게 설명한다는 점입니다. 방대한 정보를 ‘LLM -〉 프롬프트 엔지니어링 -〉 RAG -〉 파인튜닝 -〉 배포’라는 실제 개발 과정을 따라가며 학습할 수 있도록 구성한 점이 특히 인상적입니다. LangChain과 LlamaIndex를 비롯한 주요 프레임워크들을 균형 있게 다루고, 고급 RAG 기술까지 상세히 설명하여 다양한 도구를 상황에 맞게 선택하고 활용할 수 있도록 도와줍니다. 무엇보다 단순히 프레임워크 사용 방법을 알려주는 것에 그치지 않고 밑바닥부터 직접 개발하는 경험도 제공하면서 독자들이 쉽게 이해할 수 있도록 한 저자들의 노력이 돋보입니다. LLM 애플리케이션 개발의 전체 그림을 보고 싶은 분들께 이 책을 추천합니다. - 허정준 (《LLM을 활용한 실전 AI 애플리케이션 개발》 저자)
|
|
이 책은 LLM의 중요한 측면, 역사와 발전을 탐구할 뿐만 아니라 미래의 AI 엔지니어들에게 동료들보다 한 발 앞서 나갈 수 있는 도구와 기술을 제공한다. 프롬프트 엔지니어링, 에이전트 AI, SFT, RLHF, 양자화 등의 도전적이면서 중요한 주제를 다루며 즐거운 학습을 선사할 것이다. - 그레그 코퀼로(Greg Coquillo) (AI 제품 리더, 링크드인 탑보이스)
|
|
LLM을 프로덕션에 적용할 때 마주하는 모든 실전 문제와 각 장애물에 대한 여러 해결책을 종합적으로 다룬다. 강력히 추천한다! - 닉 싱(Nick Singh), DataLemur.com 설립자 (《Ace the Data Science Interview》 저자)
|
|
프로덕션 시스템에서 LLM을 사용하고자 한다면, 이 책이 도움이 될 것이다. 이 책은 단순한 트랜스포머 모델에서부터 검증 가능한 응답을 생성하는 RAG 보조 LLM으로의 발전 과정을 안내한다. 또한 이 책을 통해 LLM에 매우 쉽게 접근할 수 있다. 로컬 컴퓨터에서 실행 가능한 실습들을 다수 포함하고 있어 현대 AI의 마법을 체험할 수 있다. - 라피드 알-후마이미디(Rafid Al-Humaimidi) (AWS 선임 소프트웨어 엔지니어)
|
|
이 책에는 LLM을 사용하고 배포하는 방법에 대한 자세한 설명과 코드가 담겨 있어, 그 성능을 최적화하는 방법을 배울 수 있다. - 루이스 세라노(Luis Serrano), Serrano.Academy 설립자 (《Grokking Machine Learning》 저자)
|
|
이 책은 아키텍처 기본부터 프롬프트 작성, 파인튜닝, 검색 증강, 에이전트 구축까지 모든 중요한 내용을 코드와 함께 포괄적으로 다루고 있다. - 레티치아 파르칼라베스쿠(Letitia Parcalabescu) (NLP 박사과정 학생, 유튜버)
|
|
프롬프트 엔지니어링과 생성형 AI의 정확한 용어 사용에 집착하는 사람으로서, 이 책의 견고함에 감명받았다. Towards AI팀은 현대의 생성형 AI 응용 실무자가 필요로 하는 모든 기술 자원을 훌륭하게 구성했다. - 샌더 슐호프(Sander Schulhoff) (Learn Prompting 설립자, CEO)
|
|
LLM 세계로 들어가는 모든 이들에게 필수적인 가이드다. 이 책은 복잡한 개념을 명확하게 설명하며, 이를 실질적이고 실행 가능한 방식으로 다룬다. 모든 AI 전문가, 특히 신입과 숙련된 전문가 모두의 책장에 반드시 있어야 할 책이다. - 샤샹크 칼라니티(Shashank Kalanithi) (메타 데이터 엔지니어)
|
|
고객 중심 LLM 애플리케이션 개발을 위한 필독서다. AI 엔지니어링의 표준 교본이라고 할 수 있다. 이 책은 RAG 시스템과 프롬프트 엔지니어링을 포함한 실질적인 통찰과 실제 응용 사례를 제공한다. 꼭 읽어보길 바란다. - 아흐메드 무브타히즈(Ahmed Moubtahij) (NLP 과학자/머신러닝 엔지니어)
|
|
이 책은 시작부터 끝까지의 설명, 예제, 그리고 종합적인 세부 사항으로 가득 차 있다. 루이스와 Towards AI 팀은 AI 전문성을 확장하고 이를 실제 문제에 적용하려는 개발자들을 위해 필수적인 기술서를 썼다. 이는 개인과 기술 전문 도서관 모두에 귀중한 추가 자료가 될 것이다. - 알렉스 볼코프(Alex Volkov) (Weights & Biases AI 전도사, ThursdAI.news 진행자)
|
|
AI 산업에서 7년을 보낸 사람으로서, 대학 교육 과정과 산업 수요 간의 괴리를 직접 목격해왔다. 이 책은 그 간극을 메우는 데 지금까지 본 가장 훌륭한 자료로, 트랜스포머 아키텍처부터 고급 RAG 배포까지 모든 내용을 다룬다. AI 업계로 진출하고자 하는 엔지니어에게 필독서다. - 잭 블랜딘(Jack Blandin) (Lambda League 설립자, 선임 머신러닝 엔지니어)
|
|
이 책은 LLM을 실제로 적용하기 위한 모든 내용을 다룬다. 이론과 실질적인 지식을 균형 있게 제공하며, 직관, 사례, 코드 예시를 통해 LLM의 세계로 빠르게 뛰어들 수 있도록 도와준다. - 제러미 핀토(Jeremy Pinto) (밀라 선임 응용 연구 과학자)
|
|
이 책은 현재까지 출간된 LLM 애플리케이션 구축에 관한 가장 포괄적인 교재로, 학습자들이 기본부터 간단한 응용까지 LLM 애플리케이션의 구성 요소를 이해할 수 있도록 돕는다. 응용 주제에는 프롬프트 작성, RAG, 에이전트, 파인튜닝, 배포 등 AI 엔지니어의 도구 상자에서 필수적인 주제가 포함된다. - 제리 류(Jerry Liu) (LlamaIndex 공동 창립자, CEO)
|
|
이 책은 당신이나 당신의 회사가 LLM을 최대한 활용할 수 있도록 도와준다. 이 책은 최신 AI 모델과 라이브러리를 활용해 견고한 도구를 구축하는 방법을 안내하는 놀라운 가이드다. 현재 기술의 문제점을 최소화하는 데도 매우 유용하며, LLM 제품을 구축하려는 모든 이가 반드시 읽어야 할 책이다.
- 켄 지(Ken Jee) (데이터 과학 책임자, 팟캐스트 진행자(‘Ken’s Nearest Neighbors’, ‘The Exponential Athlete’)) |
|
LLM의 모든 기본 개념을 이론과 코드의 균형을 잘 맞추어 다루는 종합적이고 완성된 자료다. AI 분야가 어떻게 진화하든, 나는 이 책을 계속 참고할 것이다. - 티나 황(Tina Huang) (Lonely Octopus 설립자, 유튜버, 전 메타 직원)
|
|
LLM을 처음부터 이론과 코드, 최신 프레임워크까지 이해할 수 있도록 돕는 훌륭한 자료다. 연구 동향과 프레임워크에 대한 이해를 바탕으로 향후 어떤 변화가 있을지에 대한 직관을 키울 수 있다. - 피트 황(Pete Huang) (The Neuron 공동 창립자)
|