이미 소장하고 있다면 판매해 보세요.
[1부] 대규모 언어 모델 기초
▣ 01장: 대규모 언어 모델 소개 1.1 대규모 파운데이션 모델과 LLM이란 무엇인가? __1.1.1 AI 패러다임 전환과 파운데이션 모델 소개 __1.1.2 LLM의 내부 1.2 널리 사용되는 LLM 트랜스포머 기반 아키텍처 __1.2.1 초기 실험 __1.2.2 트랜스포머 아키텍처 도입 1.3 LLM 훈련과 평가 __1.3.1 LLM 훈련 __1.3.2 모델 평가 1.4 기본 모델과 맞춤형 모델 비교 __1.4.1 모델을 맞춤화하는 방법 1.5 요약 1.6 참고 문헌 ▣ 02장: AI 기반 애플리케이션을 위한 LLM 2.1 LLM은 소프트웨어 개발을 어떻게 변화시키는가 2.2 코파일럿 시스템 2.3 LLM을 애플리케이션에 통합하기 위한 AI 오케스트레이터 소개 __2.3.1 AI 오케스트레이터의 주요 구성 요소 __2.3.2 랭체인 __2.3.3 헤이스택 __2.3.4 시맨틱 커널 __2.3.5 프레임워크 선택 방법 2.4 요약 2.5 참고 문헌 ▣ 03장: 애플리케이션에 적합한 LLM 선택 3.1 시장에서 가장 유망한 LLM 소개 __3.1.1 독점 모델 __3.1.2 오픈소스 모델 3.2 언어를 넘어선 다양한 AI 모델 탐색 3.3 LLM 선택을 위한 의사결정 프레임워크 __3.3.1 고려 사항 __3.3.2 사례 연구 3.4 요약 3.5 참고 문헌 [2부] LLM 기반 애플리케이션 개발 ▣ 04장: 프롬프트 엔지니어링 4.1 프롬프트 엔지니어링이란? 4.2 프롬프트 엔지니어링 기본 __4.2.1 명확한 지침을 제공 __4.2.2 복잡한 과업을 하위 과업으로 분할 __4.2.3 정당화를 요청 __4.2.4 여러 개의 출력을 생성해 가장 적합한 것을 선택 __4.2.5 마지막에 지침을 반복 __4.2.6 구분선을 사용 4.3 고급 프롬프트 엔지니어링 __4.3.1 퓨샷 학습 __4.3.2 사고 연쇄(CoT) __4.3.3 추론·행동(ReAct) 4.4 요약 4.5 참고 문헌 ▣ 05장: 애플리케이션에 LLM 통합하기 5.1 랭체인에 대한 간략한 정보 5.2 랭체인 시작하기 __5.2.1 모델과 프롬프트 __5.2.2 데이터 연결 __5.2.3 기억 __5.2.4 체인 __5.2.5 에이전트 5.3 허깅페이스 허브를 통해 LLM 사용하기 __5.3.1 허깅페이스 사용자 액세스 토큰 만들기 __5.3.2 .env 파일에 시크릿 저장하기 __5.3.3 오픈소스 LLM 사용 시작하기 5.4 요약 5.5 참고 문헌 ▣ 06장: 대화형 애플리케이션 구축 6.1 대화형 애플리케이션 시작하기 __6.1.1 단순한 기본형 봇 만들기 __6.1.2 기억 추가하기 __6.1.3 비모수적 지식을 추가하기 __6.1.4 외부 도구 추가하기 6.2 스트림릿으로 프런트엔드 개발하기 6.3 요약 6.4 참고 문헌 ▣ 07장: LLM을 사용한 검색 및 추천 엔진 7.1 추천 시스템 개요 7.2 기존 추천 시스템 __7.2.1 K-최근접 이웃 __7.2.2 행렬 분해 __7.2.3 신경망 7.3 LLM이 추천 시스템을 변화시키는 방법 7.4 LLM 기반 추천 시스템 구현 __7.4.1 데이터 전처리 __7.4.2 콜드 스타트 시나리오에서 QA 추천 챗봇 구축하기 __7.4.3 콘텐츠 기반 시스템 구축하기 __7.4.4 스트림릿으로 프런트엔드 개발하기 7.5 요약 7.6 참고 문헌 ▣ 08장: 정형 데이터와 함께 LLM 사용하기 8.1 정형 데이터란? 8.2 관계형 데이터베이스 시작하기 __8.2.1 관계형 데이터베이스 개요 __8.2.2 샘플 데이터베이스 소개 __8.2.3 파이썬으로 관계형 DB 다루기 8.3 랭체인으로 DBCopilot 구현하기 __8.3.1 랭체인 에이전트 및 SQL 에이전트 __8.3.2 프롬프트 엔지니어링 __8.3.3 도구 추가하기 8.4 스트림릿으로 프런트엔드 개발하기 8.5 요약 8.6 참고 문헌 ▣ 09장: 코드 작업하기 9.1 코드에 적합한 LLM 선택하기 9.2 코드 이해 및 생성 __9.2.1 팔콘 LLM __9.2.2 코드라마 __9.2.3 스타코더 9.3 알고리즘처럼 작동시키기 9.4 코드 인터프리터 활용하기 9.5 요약 9.6 참고 문헌 ▣ 10장: LLM으로 멀티모달 애플리케이션 구축 10.1 왜 멀티모달리티인가? 10.2 랭체인으로 멀티모달리티 에이전트 구축하기 10.3 옵션 1: Azure AI 서비스용 기본 제공 툴킷 사용하기 __10.3.1 AzureCognitiveServicesToolkit 시작하기 10.4 옵션 2: 단일 도구를 하나의 에이전트로 결합하기 __10.4.1 유튜브 도구 및 위스퍼 __10.4.2 DALL-E 및 텍스트 생성 __10.4.3 통합하기 10.5 옵션 3: 시퀀셜 체인을 사용한 하드코딩 접근 방식 10.6 세 가지 옵션 비교 10.7 스트림릿으로 프런트엔드 개발하기 10.8 요약 10.9 참고 문헌 ▣ 11장: 대규모 언어 모델 미세 조정 11.1 미세 조정이란? 11.2 미세 조정은 언제 필요한가? 11.3 미세 조정 시작하기 __11.3.1 데이터셋 가져오기 __11.3.2 데이터 토큰화하기 __11.3.3 모델 미세 조정하기 __11.3.4 평가 지표 사용하기 __11.3.5 훈련 및 저장 11.4 요약 11.5 참고 문헌 [03부] LLM의 윤리와 미래 ▣ 12장: 책임 있는 AI 12.1 책임 있는 AI란 무엇이며 왜 필요한가? 12.2 책임 있는 AI 아키텍처 __12.2.1 모델 수준 __12.2.2 메타프롬프트 수준 __12.2.3 사용자 인터페이스 수준 12.3 책임 있는 AI 관련 규정 12.4 요약 12.5 참고 문헌 ▣ 13장: 새로운 트렌드와 혁신 13.1 언어 모델 및 생성형 AI의 최신 동향 __13.1.1 GPT-4V(ision) __13.1.2 DALL-E 3 __13.1.3 오토젠 __13.1.4 소규모 언어 모델 13.2 생성형 AI를 도입하는 기업들 __13.2.1 코카콜라 __13.2.2 노션 __13.2.3 말벡 __13.2.4 마이크로소프트 13.3 요약 13.4 참고 문헌 |
저발렌티나 알토
관심작가 알림신청Valentina Alto
역최용
관심작가 알림신청최용의 다른 상품
★ 이 책에서 다루는 내용 ★
◎ 인코더-디코더 블록과 임베딩을 포함한 LLM 아키텍처의 핵심 구성요소 탐구 ◎ GPT-3.5/4, Llama 2, Falcon LLM 같은 LLM의 특징 이해 ◎ 프런트엔드용 스트림릿(Streamlit)과 랭체인 등의 AI 오케스트레이터 활용 ◎ 메모리, 프롬프트, 도구와 같은 LLM 구성요소 숙지 ◎ 비모수적 지식과 벡터 데이터베이스 활용법 학습 ◎ AI 연구와 산업 응용에서 LFM이 갖는 의미 이해 ◎ 파인 튜닝을 통한 LLM 커스터마이징 |