이미지 검색을 사용해 보세요
검색창 이전화면 이전화면
최근 검색어
인기 검색어

소득공제 베스트셀러
한 권으로 끝내는 실전 LLM 파인튜닝
GPT 작동 원리부터 Gemma 2 / Llama 3 파인튜닝, vLLM 서빙까지
강다솔
위키북스 2024.12.17.
베스트
IT 모바일 55위 IT 모바일 top20 4주
가격
28,000
10 25,200
YES포인트?
1,400원 (5%)
5만원 이상 구매 시 2천원 추가 적립
결제혜택
카드/간편결제 혜택을 확인하세요

이미 소장하고 있다면 판매해 보세요.

  •  국내배송만 가능
  •  최저가 보상
  •  문화비소득공제 신청가능

위키북스 생성형 AI 프로그래밍

상세 이미지

책소개

목차

▣ 01장: NLP의 과거와 오늘

1.1 자연어 처리 발전의 주요 이정표
1.2 초기 기계 번역의 역사와 전환점
__1.2.1 아르츠루니와 트로얀스키의 연구
__1.2.2 위버의 제안과 조지타운-IBM 실험
__1.2.3 초기 기계 번역의 한계와 새로운 전환
1.3 인공지능의 시작
__1.3.1 튜링의 질문: 기계는 생각할 수 있는가?
__1.3.2 튜링 테스트의 한계
1.4 인공지능은 어떻게 학습하는가?
__1.4.1 인공지능의 학습 메커니즘 발전 과정
__1.4.2 퍼셉트론: 인공지능 학습의 첫걸음
1.5 역전파 알고리즘: 학습의 혁명
__1.5.1 비선형성: 더 똑똑한 인공지능을 만드는 열쇠
__1.5.2 역전파 알고리즘
1.6 트랜스포머의 등장: NLP의 새로운 시대

▣ 02장: GPT

2.1 런팟 소개와 사용법
__2.1.1 런팟 회원 가입
__2.1.2 크레딧 구매
__2.1.3 포드 구성
__2.1.4 주피터 랩
2.2 데이터 준비와 모델 구성
2.3 언어 모델 만들기
__2.3.1 라이브러리 설명
__2.3.2 __init__ 함수
__2.3.3 forward 메서드
__2.3.4 generate 메서드
2.4 Optimizer 추가하기
__2.4.1 데이터를 GPU로 전달하기
__2.4.2 Loss 함수 만들기
__2.4.3 전체 코드 복습
2.5 셀프 어텐션 추가하기
__2.5.1 문자들 간에 정보를 주고받는 방식(평균 방식)
__2.5.2 행렬곱 연산으로 더 빠르게 정보를 주고받기
__2.5.3 셀프 어텐션이란?
__2.5.4 왜 dk 로 나눠야 하는가?
__2.5.5 셀프 어텐션 적용하기
2.6 멀티헤드 어텐션과 피드포워드
__2.6.1 멀티헤드 어텐션 만들기
__2.6.2 피드포워드 만들기
2.7 Blocks 만들기
2.8 토크나이저 만들기
__2.8.1 vocab_size 변화에 따른 토큰화 비교
__2.8.2 토크나이저 만들기

▣ 03장: 전체 파인튜닝

3.1 전체 파인튜닝 데이터 준비
__3.1.1 전체 파인튜닝의 원리와 종류
__3.1.2 다양한 태스크와 데이터셋
__3.1.3 데이터 전처리
3.2 Gemma와 Llama 3 모델 구조 분석
__3.2.1 Gemma 모델 구조 분석
__3.2.2 Gemma와 Gemma 2 모델 비교
__3.2.3 Llama 3 모델 구조 분석
__3.2.4 GPT, Gemma, Llama 비교
3.3 GPU 병렬화 기법
__3.3.1 데이터 병렬 처리
__3.3.2 모델 병렬화
__3.3.3 파이프라인 병렬화
__3.3.4 텐서 병렬 처리
__3.3.5 FSDP
3.4 단일 GPU를 활용한 Gemma-2B-it 파인튜닝
__3.4.1 런팟 환경 설정
__3.4.2 Gemma 모델 준비
__3.4.3 데이터셋 준비
__3.4.4 Gemma 모델의 기능 확인하기
__3.4.5 키워드 데이터 생성
__3.4.6 데이터 전처리
__3.4.7 데이터셋 분리 및 콜레이터 설정
__3.4.8 학습 파라미터 설정
__3.4.9 평가 메트릭 정의
__3.4.10 모델 학습 및 평가
__3.4.11 파인튜닝한 모델 테스트
3.5 다중 GPU를 활용한 Llama3.1-8B-instruct 파인튜닝
__3.5.1 런팟 환경 설정
__3.5.2 Llama 3.1 학습 파라미터 설정
__3.5.3 데이터셋 준비
__3.5.4 Llama 3.1 모델 파라미터 설정
__3.5.5 Llama 3.1 모델 학습 코드 살펴보기
__3.5.6 Llama 3.1 모델 학습 실행
__3.5.7 Wandb 설정과 사용
__3.5.8 학습한 Llama 3.1 모델 테스트
__3.5.9 생성된 텍스트 데이터 OpenAI로 평가하기
__3.5.10 채점 점수 구하기

▣ 04장: 효율적인 파라미터 튜닝 기법(PEFT)

4.1 LoRA 이론 및 실습
__4.1.1 LoRA 개념
__4.1.2 런팟 환경 설정
__4.1.3 Gemma-2-9B-it 모델 준비
__4.1.4 데이터 전처리
__4.1.5 LoRA 파라미터 설정
__4.1.6 모델 학습
__4.1.7 학습한 모델 테스트하기
__4.1.8 모델 성능을 OpenAI로 평가하기
4.2 QLoRA 이론 및 실습
__4.2.1 양자화의 이해
__4.2.2 런팟 환경 설정
__4.2.3 데이터셋 준비
__4.2.4 양자화 파라미터 설정
__4.2.5 모델 준비
__4.2.6 파라미터 설정
__4.2.7 모델 학습
__4.2.8 허깅페이스 허브에 모델 업로드
__4.2.9 학습한 모델 테스트
__4.2.10 Exact Match를 활용한 평가
__4.2.11 OpenAI API로 평가하기

▣ 05장: vLLM을 활용한 서빙

5.1 페이지드 어텐션 원리
5.2 vLLM 사용 방법
5.3 LLaMA3 생성 속도 가속화
5.4 vLLM을 활용한 Multi-LoRA
__5.4.1 Multi-LoRA 실습
__5.4.2 노트북 환경에서 실습
5.5 Multi-LoRA를 사용할 때 주의할 점

▣ 부록

역전파 수학적 리뷰
역전파 코드 리뷰

저자 소개1

구글 부트캠프 1기 수료를 시작으로, 하나은행 챗봇 프로젝트와 함께 금융, 로봇, 교육 등 다양한 분야에서 AI 프로젝트를 수행했다. 자연어 처리(NLP)와 멀티모달 분야에 깊은 관심을 가지고 있으며, 현재는 실전 경험을 바탕으로 LLM 파인튜닝 기술 연구에 집중하고 있다.

품목정보

발행일
2024년 12월 17일
쪽수, 무게, 크기
348쪽 | 175*235*15mm
ISBN13
9791158395629

추천평

AI와 NLP의 이론부터 실전 구현까지, Runpod 등 실무 플랫폼을 활용한 실습으로 비즈니스와 연구 현장에서 바로 적용 가능한 실전 지침서입니다. - 강진범 (브릭메이트 CTO)
I의 역사부터 최신 언어 모델까지, 딥러닝과 PyTorch를 처음 접하는 독자도 쉽게 이해하고 실습할 수 있는 한국어 중심의 종합 입문서입니다. - 이준범 (AI/ML GDE)
AI가 필수가 된 시대에, 초보자도 이론부터 실무까지 쉽게 따라할 수 있는 실용적인 NLP와 클라우드 환경의 AI 모델 구축 안내서입니다. - 염경현 (Amazon Web Services CSE)
파인튜닝의 기초 개념부터 다중 GPU 활용과 vLLM 서빙까지, 한국어로 쉽게 풀어쓴 체계적인 LLM 파인튜닝 가이드북입니다. - 이경록 (YouTube 테디노트 Creator)
LLaMA3까지 다루는 깊이 있는 이론과 Runpod 환경의 실습을 통해 파인튜닝, PEFT, vLLM 서빙 등 실무에서 즉시 활용 가능한 기술을 체계적으로 배울 수 있는 실무 안내서입니다. - 유원준 (네이버클라우드 NLP 엔지니어)

리뷰/한줄평8

리뷰

9.0 리뷰 총점

한줄평

9.0 한줄평 총점
25,200
1 25,200