이미 소장하고 있다면 판매해 보세요.
|
1장 챗GPT
1.1 챗GPT란 __1.1.1 챗GPT 시작 __1.1.2 챗GPT 활용 사례 1.2 편리한 챗GPT 기능 __1.2.1 채팅 답변 편집 및 조작 __1.2.2 채팅 기록 및 공유 1.3 프롬프트 엔지니어링 __1.3.1 프롬프트와 컨텍스트 __1.3.2 프롬프트 엔지니어링 1.4 챗GPT 엔진(대규모 언어 모델) __1.4.1 GPT-4와 GPT-3.5 __1.4.2 웹 검색 연동 기능 __1.4.3 멀티모달 기능(이미지를 이용한 채팅) __1.4.4 Code Interpreter(프로그램 자동 실행) 1.5 GPTs(AI의 커스터마이징 기능) __1.5.1 GPTs __1.5.2 GPT 빌더 1.6 챗GPT 이외의 AI 채팅 서비스 __1.6.1 구글 제미나이 __1.6.2 마이크로소프트 코파일럿 __1.6.3 앤트로픽 클로드 1.7 AI 채팅을 이용할 때 주의할 점 __1.7.1 무작위성이 존재한다 __1.7.2 오류 가능성 __1.7.3 금지된 행위 __1.7.4 입력 데이터 취급 __1.7.5 GPTs 이용할 때 주의 사항 2장 인공지능 2.1 AI(인공지능) __2.1.1 인공지능이란 2.2 AI 역사 __2.2.1 AI 연구의 역사 2.3 생성형 AI와 범용 인공지능 __2.3.1 생성형 AI __2.3.2 범용 인공지능(AGI) 3장 머신러닝과 딥러닝 3.1 머신러닝 __3.1.1 머신러닝 ≠ 기계가 스스로 학습하는 것 __3.1.2 머신러닝 종류 __3.1.3 추론과 학습 __3.1.4 최적화 __3.1.5 일반화와 과적합 3.2 신경망 __3.2.1 신경망이란 __3.2.2 신경망 구조 3.3 신경망의 학습 __3.3.1 경사 하강법을 이용한 학습 __3.3.2 오차 역전파법 3.4 정규화 __3.4.1 드롭아웃 __3.4.2 배치 정규화 __3.4.3 잔차 신경망 3.5 컴퓨터에서 숫자를 다루는 방법 __3.5.1 2진수로 정수와 소수 표현 __3.5.2 부동 소수점 수 __3.5.3 부동 소수점 수의 대표적인 형식 __3.5.4 부동 소수점 수의 정밀도와 동적 범위 3.6 양자화 __3.6.1 모델 크기와 GPU VRAM 관계 __3.6.2 양자화 3.7 GPU를 활용한 딥러닝 __3.7.1 계산을 빠르게 하는 방법 __3.7.2 GPU vs CPU __3.7.3 GPU의 탄생과 범용 계산 __3.7.4 딥러닝에 특화된 GPU와 NPU __3.7.5 GPU/NPU의 소프트웨어 지원 4장 자연어 처리 4.1 자연어 처리 __4.1.1 딥러닝 이전의 자연어 처리 __4.1.2 자연어 처리와 딥러닝 4.2 문자와 문자 코드 __4.2.1 문자 코드 __4.2.2 유니코드 4.3 단어와 토큰 __4.3.1 문장을 컴퓨터가 처리할 수 있도록 분할하기 __4.3.2 단어와 문자 기반 분할 __4.3.3 서브워드 4.4 토크나이저 __4.4.1 토큰나이저의 학습 __4.4.2 어휘 수와 토큰 수의 트레이드 오프 4.5 Word2Vec __4.5.1 ‘개념’을 다루는 방식 __4.5.2 Word2Vec으로 단어의 벡터 표현 __4.5.3 Word2Vec이 단어 의미를 파악하는 원리 4.6 임베딩 벡터 __4.6.1 토큰 벡터는 ‘의미’를 나타내지 않는다 __4.6.2 임베딩 벡터 __4.6.3 다양한 임베딩 벡터 5장 대규모 언어 모델 5.1 언어 모델 __5.1.1 모델이란 __5.1.2 언어 모델이란 5.2 대규모 언어 모델 __5.2.1 대규모 언어 모델과 ‘일반적인 언어 능력’ 5.3 신경망의 범용성과 기반 모델 __5.3.1 신경망으로 특징 추출 __5.3.2 기반 모델 __5.3.3 기반 모델로 정확도가 향상되는 원리 5.4 스케일링 법칙과 창발성 __5.4.1 스케일링 법칙과 창발성 __5.4.2 대규모 언어 모델의 파라미터 수 5.5 언어 모델이 텍스트를 생성하는 원리 __5.5.1 언어 모델의 텍스트 생성 __5.5.2 자기 회귀 언어 모델 __5.5.3 탐욕법 5.6 텍스트 생성 전략 __5.6.1 랜덤 샘플링과 소프트맥스 함수 __5.6.2 ‘온도’의 역할 __5.6.3 단어 생성의 트리 다이어그램 __5.6.4 빔 서치 5.7 언어 모델을 이용한 AI 채팅 __5.7.1 문장 생성을 이용한 AI 채팅 __5.7.2 대규모 언어 모델을 이용한 AI 채팅의 문제점 5.8 로컬 LLM __5.8.1 로컬 LLM이란 __5.8.2 로컬 LLM 환경 __5.8.3 로컬 LLM을 이용한 추론 과정 5.9 대규모 언어 모델의 라이선스 __5.9.1 로컬 LLM의 생태계 __5.9.2 소프트웨어 라이선스 __5.9.3 대규모 언어 모델의 라이선스 종류 5.10 대규모 언어 모델의 평가 __5.10.1 대규모 언어 모델의 평가 방법 __5.10.2 리더보드 5.11 대규모 언어 모델의 학습: 사전 학습 __5.11.1 사전 학습과 기반 모델 __5.11.2 자기 지도 학습 __5.11.3 기반 모델의 추가 학습 __5.11.4 사전 학습의 훈련 데이터 5.12 대규모 언어 모델의 학습: 파인튜닝 __5.12.1 파인튜닝 __5.12.2 파인튜닝 방법 __5.12.3 RLHF __5.12.4 LoRA 5.13 컨텍스트 내 학습 __5.13.1 문맥 내 학습 6장 트랜스포머 6.1 회귀형 신경망(RNN) __6.1.1 벡터의 차원 __6.1.2 회귀형 신경망 __6.1.3 언어 모델로서 RNN __6.1.4 장거리 의존성과 LSTM __6.1.5 인코더-디코더 6.2 주의 메커니즘 __6.2.1 인간의 인지와 주의 메커니즘 __6.2.2 주의 메커니즘의 기본 __6.2.3 인코더-디코더와 주의 메커니즘 6.3 주의 메커니즘의 계산 __6.3.1 주의 메커니즘 계산 __6.3.2 주의 메커니즘이 잘 작동하는 이유 6.4 트랜스포머 __6.4.1 트랜스포머의 기본 구성 __6.4.2 위치 인코딩 __6.4.3 멀티헤드 주의 메커니즘 6.5 BERT __6.5.1 BERT(버트) 특징 __6.5.2 BERT의 사전 학습 6.6 GPT __6.6.1 GPT 모델의 기본 구조 __6.6.2 Mixture of Experts 7장 API를 이용한 AI 개발 7.1 OpenAI API 활용 __7.1.1 OpenAI API __7.1.2 OpenAI API를 이용할 때 주의 사항 7.2 텍스트 생성 API(Completion API 등) __7.2.1 텍스트 생성 API의 종류 7.3 OpenAI API 요금 __7.3.1 OpenAI API의 토큰 __7.3.2 텍스트 생성 모델의 종류와 요금 __7.3.3 OpenAI 토크나이저 라이브러리 tiktoken __7.3.4 언어별 토큰 수 차이 7.4 텍스트 생성 API에 지정하는 파라미터 __7.4.1 텍스트 생성 API의 파라미터 7.5 텍스트 생성 API와 외부 도구의 연계: Function Calling __7.5.1 Function Calling __7.5.2 랭체인 라이브러리 __7.5.3 기계가 읽을 수 있는 도구로써 Function Calling 7.6 임베딩 벡터 생성 API와 규약 위반 검사 API __7.6.1 임베딩 벡터 생성 API __7.6.2 임베딩 벡터 생성 API의 모델 종류 __7.6.3 약관 위반 검사(Moderation) API 7.7 OpenAI 이외의 대규모 언어 모델 API 서비스 __7.7.1 마이크로소프트 Azure OpenAI API __7.7.2 구글, Vertex AI __7.7.3 아마존, Bedrock 7.8 RAG __7.8.1 외부 지식을 활용한 AI 애플리케이션 개발 __7.8.2 RAG 8장 대규모 언어 모델의 영향 8.1 생성형 AI의 위험과 보안 __8.1.1 생성형 AI가 미치는 악영향 __8.1.2 생성형 AI의 악용 __8.1.3 생성형 AI가 부적절한 출력을 할 위험 __8.1.4 생성형 AI를 이용한 서비스 공격 __8.1.5 대책과 가이드라인 8.2 AI의 편향과 정렬 __8.2.1 학습 데이터의 편향이 AI에 미치는 영향 3 __8.2.2 AI의 편향성을 제어하는 방법 8.3 환각 __8.3.1 AI는 실수한다 __8.3.2 환각의 정체 __8.3.3 환각의 대책 __8.3.4 환각을 없앨 수 있을까? 8.4 AI의 민주화 __8.4.1 AI 활용의 민주화 __8.4.2 AI 개발의 민주화 __8.4.3 빅테크의 컴퓨팅 자원 8.5 대규모 언어 모델의 다국어 지원 __8.5.1 챗GPT는 몇 개 언어로 사용 가능한가요? __8.5.2 대규모 언어 모델의 언어 간 격차 __8.5.3 대규모 언어 모델과 인지, 문화와의 관계 8.6 AI와 철학 __8.6.1 지능이란, 언어란 __8.6.2 중국어의 방 |
아크몬드
박광수의 다른 상품
|
LLM의 강점은 코딩 분야에서 더욱 빛을 발합니다. 현재 활용하는 깃허브 코파일러 덕분에 아이디어 구상부터 코드 작성, 최종 리뷰 과정까지 LLM의 지원 없이는 상상하기 어려울 만큼 필수적인 존재가 되었습니다. LLM은 이제 단순한 도구가 아니라, 제 업무 생산성을 비약적으로 높여 주는 핵심 엔진입니다. 이 혁신의 중심에 있는 챗GPT와 그 근간 기술들을 깊이 있게 다룬 이 책은 독자에게 놀라운 통찰을 선사합니다.
-박광수 --- 「역자 서문」 중에서 |
|
챗GPT는 어떻게 작동하는가?
쉽고 빠르게 이해하는 챗GPT의 구조와 원리! 생성형 AI를 활용하는 책들이 주를 이루고 있지만, 기술의 본질을 이해하지 못한다면 응용하고 활용하는 데는 한계가 있습니다. 활용법은 금세 바뀌고 도구 자체도 빠르게 진화합니다. 하지만 구조와 원리를 깊이 이해해 두면, 새로운 버전이 등장해 활용법이 변하더라도 당황하지 않고 안정적으로 대응할 수 있습니다. 따라서 AI를 더 잘 활용하고 AI를 다양한 분야에 적용하고 싶다면, AI의 원리를 알아두는 것이 반드시 필요합니다. 이 책은 챗GPT의 높은 범용성을 가능하 한 핵심 기술인 대규모 언어 모델(LLM)의 구조와 원리를 다룹니다. 뉴럴 네트워크, 양자화 기반 모델, 트랜스포머, 스케일링 법칙, RAG, 파인튜닝까지 생성형 AI의 기반을 이루는 주요 개념과 메커니즘을 체계적으로 설명합니다. 또한 AI의 성능과 정확도를 높이는 요소부터 응용 가능성과 활용 전망까지 폭넓게 고찰합니다. 생성형 AI를 업무에 활용하고 있거나 다른 기술에 접목해야 하는 독자에게 강력하게 추천하는 책입니다. |