이미 소장하고 있다면 판매해 보세요.
|
▣ 01장: 대규모 언어 모델과 AI 에이전트
1.1 일상에 다가온 AI 에이전트 __1.1.1 AI 에이전트를 시작하는 방법 __1.1.2 오픈소스로 일상에 더 다가온 LLM 1.2 내 컴퓨터에서 작동하는 AI 에이전트 __1.2.1 오픈소스 LLM의 장점 __1.2.2 오픈소스 LLM 생태계: 라마와 올라마 __1.2.3 한국어 LLM의 가능성과 Qwen 모델 1.3 LLM과 AI 에이전트의 이해 __1.3.1 LLM이란? __1.3.2 LLM의 발전 과정 __1.3.3 LLM의 구조와 작동 원리 __1.3.4 최신 LLM 구조 __1.3.5 LLM의 훈련과 활용 ▣ 02장: LLM과 올라마 2.1 올라마 시작하기 __2.1.1 올라마 설치 __2.1.2 올라마 실행 __2.1.3 모델 관리 __2.1.4 올라마로 다양한 오픈소스 LLM 사용해 보기 __2.1.5 올라마로 다양한 크기의 LLM 사용해 보기 __2.1.6 올라마로 양자화 LLM 사용해 보기 2.2 AI 에이전트 개발환경 설정 __2.2.1 AI 프로그래밍에 적합한 언어, 파이썬 __2.2.2 uv 패키지 관리자 설치와 사용법 2.3 올라마 API와 SDK 연동 __2.3.1 상용 LLM API와 같은 REST API 방식 __2.3.2 올라마 파이썬 SDK 사용 2.4 올라마 GUI와 웹 UI __2.4.1 올라마에 연결할 수 있는 GUI 도구 __2.4.2 Open WebUI 설치 및 사용법 __2.4.3 올라마 GUI ▣ 03장: 랭체인: AI 프로그래밍의 시작 3.1 랭체인의 개념과 특징 __3.1.1 랭체인이란? __3.1.2 랭체인의 구성 요소 3.2 올라마를 이용한 채팅 예제 __3.2.1 올라마 채팅 예제 분석 __3.2.2 LLM 모델 변경 방법 3.3 상용 LLM을 사용하는 방법 __3.3.1 상용 LLM 채팅 예제 소개 __3.3.2 OpenAI 채팅 예제 분석 __3.3.3 상용 모델의 장단점과 주의사항 3.4 스트리밍 출력 예제 __3.4.1 스트리밍 출력 예제 소개 __3.4.2 스트리밍 출력 예제 분석 __3.4.3 출력 방식과 출력 형식 3.5 출력 형식 변경 예제 __3.5.1 JSON 출력으로 바꾸는 예제 __3.5.2 소스코드 분석 __3.5.3 다양한 출력 형식 3.6 LCEL을 이용한 기본 예제 __3.6.1 LCEL 예제 소개 __3.6.2 LCEL 예제 분석 __3.6.3 LCEL의 장점 ▣ 04장: 프롬프트 엔지니어링 4.1 프롬프트 엔지니어링이란? __4.1.1 프롬프트와 프롬프트 엔지니어링 __4.1.2 프롬프트 엔지니어링이 필요한 이유 4.2 랭체인에서 프롬프트를 제어하는 방법 __4.2.1 프롬프트 템플릿 예제 소개 __4.2.2 프롬프트 템플릿 예제 분석 __4.2.3 프롬프트와 변수 4.3 대화 내용을 기억하는 연속 채팅 __4.3.1 연속 채팅 예제 소개 __4.3.2 연속 채팅 예제 분석 __4.3.3 대화 기록 기능의 활용 4.4 프롬프트 클래스와 출력 스트림 처리 __4.4.1 프롬프트 클래스와 출력 스트림 처리 예제 소개 __4.4.2 프롬프트 클래스와 출력 스트림 처리 예제 분석 __4.4.3 프롬프트와 출력 스트림의 활용 ▣ 05장: 검색 증강 생성(RAG) 5.1 RAG의 개념과 특징 __5.1.1 RAG란? __5.1.2 RAG의 구성 요소 5.2 올라마를 이용한 임베딩 __5.2.1 임베딩이란? __5.2.2 올라마 임베딩 예제 __5.2.3 올라마 임베딩 예제 분석 5.3 벡터 저장소와 검색 __5.3.1 랭체인 벡터 저장소 예제 __5.3.2 올라마 임베딩 예제 분석 5.4 랭체인을 이용한 RAG 구현 __5.4.1 랭체인 RAG 예제 __5.4.2 랭체인 RAG 예제 분석 5.5 PDF를 활용한 RAG __5.5.1 랭체인 PDF RAG 예제 __5.5.2 PDF RAG 예제 분석 __5.5.3 RAG 예제의 활용 ▣ 06장: 랭스미스: AI 애플리케이션 모니터링 6.1 랭스미스: LLM 테스트, 평가 및 모니터링 도구 6.2 랭스미스 작동 모니터링 __6.2.1 프로젝트 생성과 API 키 발급 __6.2.2 테스트용 예제 코드 소개 __6.2.3 작동 모니터링 6.3 랭체인 허브 시작하기 __6.3.1 랭체인 허브를 이용한 뉴스 요약 예제 __6.3.2 랭체인 허브를 이용한 뉴스 요약 예제 분석 __6.3.3 랭체인 허브 사용의 효과 6.4 랭스미스 클라이언트를 통해 랭체인 허브 사용하기 __6.4.1 랭스미스 클라이언트 예제 분석 ▣ 07장: 에이전트: 지능적인 LLM 사용법 7.1 에이전트가 필요한 이유 __7.1.1 LLM의 한계와 도구 __7.1.2 에이전트의 등장 __7.1.3 에이전트의 작동 구조 __7.1.4 에이전트의 시작: ReAct 7.2 검색엔진을 이용한 챗봇 에이전트 __7.2.1 검색엔진 챗봇 에이전트 예제 소개 __7.2.2 검색 엔진을 이용한 챗봇 에이전트 분석 __7.2.3 에이전트 작동 모니터링 7.3 다양한 도구를 활용하는 에이전트 구현 __7.3.1 멀티 도구 에이전트 예제 소개 __7.3.2 여러 개의 도구를 사용하는 에이전트 예제 분석 __7.3.3 에이전트 작동 모니터링 ▣ 08장: 랭그래프와 멀티 에이전트 시스템 8.1 랭그래프와 멀티 에이전트 시스템 소개 __8.1.1 랭그래프란? __8.1.2 랭그래프의 구성 요소 8.2 랭그래프 챗봇 예제 __8.2.1 프로젝트 생성과 테스트 __8.2.2 랭그래프 챗봇 예제 분석 __8.2.3 랭그래프 챗봇 실행 모니터링 8.3 랭그래프 에이전트 구현 예제 __8.3.1 프로젝트 생성과 테스트 __8.3.2 랭그래프 도구 추가 예제 분석 __8.3.3 작동 모니터링 8.4 랭그래프 기능 확장 예제 __8.4.1 사용자 입력과 일시 중지 기능 테스트 __8.4.2 작동 모니터링 8.5 멀티 에이전트 예제 __8.5.1 멀티 에이전트 예제 테스트 __8.5.2 멀티 에이전트 예제 분석 __8.5.3 작동 모니터링 ▣ 09장: MCP 활용법 9.1 MCP 소개 __9.1.1 MCP란? __9.1.2 MCP의 작동 구조 __9.1.3 MCP 저장소, Smithery.ai 9.2 클로드 데스크톱과 MCP 테스트 __9.2.1 클로드와 클로드 데스크톱 __9.2.2 클로드 데스크톱 설치 및 실행 __9.2.3 클로드 데스크톱에 도구 연결하기 __9.2.4 클로드 데스크톱에 연결된 도구 활용하기 9.3 MCP 에이전트 구현 예제 __9.3.1 프로젝트 생성과 테스트 __9.3.2 MCP 에이전트 예제의 파일 구조와 MCP 코드 __9.3.3 MCP 에이전트 예제 메인 파일 __9.3.4 MCP 에이전트 작동 모니터링 ▣ 10장: [예제 프로젝트] AI 뉴스 블로그 작성 자동화하기 10.1 노션 블로그 생성 및 노션 MCP 연결 __10.1.1 노션 블로그 만들기 __10.1.2 노션 MCP 연결하기 __10.1.3 노션 MCP 테스트하기 10.2 긱뉴스 MCP 연결 및 AI 뉴스 블로그 자동화하기 __10.2.1 긱뉴스 MCP 연결하기 ▣ 11장: [프로젝트] 멀티모달 AI로 구현하는 자동 회의록 애플리케이션 11.1 멀티모달 LLM과 음성인식 AI 모델 __11.1.1 멀티모달 LLM __11.1.2 위스퍼 음성인식 모델 __11.1.3 회의록 워크플로 설계 11.2 회의록 구현 예제 __11.2.1 위스퍼와 LLM을 이용한 AI 회의록 예제 소개 __11.2.2 메인 로직(main.py) __11.2.3 전체 파이프라인 구현(pipeline.py) __11.2.4 음성 파일 전사(transcriber.py) __11.2.5 로컬 LLM을 통한 요약(summarizer.py) __11.2.6 요약 파일 저장(file_handler.py) |