이 상품은 구매 후 지원 기기에서 예스24 eBook앱 설치 후 바로 이용 가능한 상품입니다.
1 자연어 처리와 허깅페이스_1.1 허깅페이스 소개__1.1.1 Datasets__1.1.2 Models__1.1.3 Spaces__1.1.4 Docs_1.2 자연어 처리와 허깅페이스의 관계2 환경 구축_2.1 구글 코랩 환경 구축__2.1.1 계정 생성__2.1.2 새 노트북 만들기__2.1.3 코드 실행__2.1.4 파일 저장__2.1.5 깃 코드 열기_2.2 구글 드라이브 마운트3 허깅페이스 주요 라이브러리_3.1 Datasets 라이브러리__3.1.1 Datasets 설치__3.1.2 Datasets 실습_3.2 Transformers 라이브러리__3.2.1 Transformers 설치__3.2.2 Tokenizer__3.2.3 DataCollator__3.2.4 Model__3.2.5 AutoClass__3.2.6 Trainer, TrainingArguments__3.2.7 Pipeline_3.3 미세조정__3.3.1 토크나이저와 모델 준비__3.3.2 데이터 준비 및 전처리__3.3.3 학습 파라미터 선정__3.3.4 학습 진행__3.3.5 성능 평가__3.3.6 모델 저장_3.4 허깅페이스 허브 등록__3.4.1 push_to_hub()__3.4.2 CLI__3.4.3 huggingface-hub4 보조 라이브러리_4.1 Tokenizers 라이브러리__4.1.1 Tokenizer 학습__4.1.2 모델 초기화 후 학습_4.2 Evaluate 라이브러리__4.2.1 Evaluate 평가__4.2.2 커스텀 메트릭 만들기__4.2.3 Trainer 적용5 언어 모델 구조 및 학습_5.1 트랜스포머 모델_5.2 인코더 기반 모델__5.2.1 기본 구조__5.2.2 Sequence Classification__5.2.3 Multiple Choice__5.2.4 Token Classification__5.2.5 Question Answering_5.3 디코더 기반 모델__5.3.1 기본 구조__5.3.2 Causal LM__5.3.3 Question Answering__5.3.4 Sequence Classification_5.4 인코더-디코더 기반 모델__5.4.1 기본 구조__5.4.2 Conditional Generation__5.4.3 Sequence Classification__5.4.4 Question Answering6 모델 활용_6.1 모델 미세조정__6.1.1 인코더 - Sequence Classification__6.1.2 디코더 - Causal LM__6.1.3 인코더-디코더 - Conditional Generation__6.1.4 언어 모델 문장 생성_6.2 모델 서빙7 모델 경량화_7.1 모델 경량화 개요_7.2 PEFT_7.3 양자화_7.4 QLoRA 미세조정8 TRL_8.1 TRL 라이브러리 개요_8.2 RLHF_8.3 보상 모델 트레이닝_8.4 SFT_8.5 PPO_8.6 Best-of-N 샘플링_8.7 DPO_8.8 KTO_8.9 CPO_8.10 ORPO
|
추론 속도를 높이고 성능을 발전시키는 허깅페이스 라이브러리 하드 트레이닝1장에서는 허깅페이스 허브에 등록된 모델 및 데이터셋을 확인해보고 자연어 처리와 허깅페이스의 관계에 대해 알아봅니다. 2장에서는 허깅페이스를 하드 트레이닝해보기에 앞서 구글 코랩 환경을 구축하고 구글 드라이브를 마운트합니다. 3장에서는 Datasets 라이브러리와 Transformers 라이브러리를 활용하여 토크나이저 및 모델 준비, KLUE 데이터셋 전처리, 학습 파라미터 선정 및 학습 진행과 성능 평가를 실습해봅니다. 4장에서는 사전학습 단계부터 직접 진행해야 하는 경우를 대비하여 Tokenizers 라이브러리에 대해 살펴봅니다. 그리고 정확도, f1 스코어, 정밀도, 재현율을 기준으로 모델을 평가하는 Evaluate 라이브러리에 대해 알아봅니다.5장에서는 트랜스포머 모델, 인코더 기반 모델, 디코더 기반 모델, 인코더-디코더 기반 모델의 기본 구조를 살펴보고 문장 분류, 다중 선택, 토큰 분류, 질의 응답, 조건부 생성, 인과적 언어 모델(Causal LM) 태스크의 코드와 결과를 확인해봅니다.6장에서는 모델 구조별 대표 태스크에 대해 미세조정(파인튜닝, fine-tuning)을 진행합니다. 확률적 특징의 이해를 돕는 수식과 꼭 필요한 메서드의 파라미터까지 함께 살펴볼 수 있습니다.7장에서는 PEFT, 양자화, QLoRA 미세조정과 같이 모델의 메모리 사용량은 줄이고 추론 속도는 높이는 경량화 기법에 대해 알아봅니다.8장에서는 RLHF, SFT, PPO, DPO, KTO, CPO, ORPO, Best-of-N 샘플링, 보상 모델 트레이닝 등 정렬 조정에 해당하는 최신 방법론과 이를 강화학습을 위한 트랜스포머(TRL)를 통해 활용하는 방식에 대해 알아봅니다.이 책이 필요한 독자- 자연어 처리 분야에서의 인공지능에 대해 알고 싶은 분- 언어 모델을 처음 접하는 대학생 또는 대학원생- 허깅페이스 코드를 실습해보고 싶은 자연어 처리 초보자- 언어 모델의 구조와 다양한 태스크를 샅샅이 살펴보고 싶은 분- 허깅페이스에 대한 이해도는 있지만, 직접 부딪혀가며 코드로 기술을 레벨업하고 싶은 분- 경량화 기법과 강화학습을 위한 트랜스포머에 대해 궁금한 분
|