이 상품은 구매 후 지원 기기에서 예스24 eBook앱 설치 후 바로 이용 가능한 상품입니다.
제Ⅰ부 과제 설정제1장 AI에게 ‘설명’이 필요한 이유1.1 AI 보급과 새로운 요구 사항1.2 AI의 공평성ㆍ책임성ㆍ투명성1.2.1 AI의 공평성(Fairness) 1.2.2 AI의 책임성(Accountability) 1.2.3 AI의 투명성(Transparency) 1.3 AI의 설명 가능성1.3.1 설명 가능성이 높은 알고리즘1.3.2 설명 가능성이 낮은 알고리즘1.4 AI를 업무에 적용할 때 AI 설명이 필요한 이유이번 장을 정리하며제Ⅱ부 기초 지식제2장 ‘설명 가능한 AI’의 개요2.1 XAI란 무엇인가?2.1.1 XAI의 목적2.1.2 ‘설명 가능한 AI’와 ‘해석 가능한 AI’Column XAI 관련 용어 의미2.2 XAI 동향2.2.1 XAI에 대한 왕성한 연구 활동2.2.2 XAI 구현2.3 ‘전역 설명’과 ‘국소 설명'2.3.1 전역 설명(Global Explanations)2.3.2 국소 설명(Local Explanations)2.4 설명 방법의 차이점2.5 모델 의존성2.5.1 모델 의존형 XAI2.5.2 모델 불문형 XAI이번 장을 정리하며제3장 XAI 활용 방법3.1 설명 분류별 활용 방법3.1.1 국소 설명 활용 방법3.1.2 전역 설명 활용 방법3.2 국소 설명 활용 방법3.2.1 신고 내용의 타당성 검증3.2.2 의도와 다른 학습 재검토3.3 전역 설명 활용 방법3.3.1 AI 모델의 개선 운용3.3.2 적대적 공격 검증이번 장을 정리하며제4장 다양한 XAI 기술4.1 다양한 설명 방법4.1.1 XAI 라인업4.1.2 이 책의 해설 내용4.2 기술 소개 ① LIME4.2.1 개념과 동작 원리4.2.2 데이터 종류별 동작 원리4.2.3 LIME의 특징과 주의점4.2.4 LIME 정리4.3 기술 소개 ② SHAP4.3.1 섀플리 값이란4.3.2 SHAP의 개념4.3.3 SHAP 계산 알고리즘4.3.4 SHAP 정리4.4 소개 기술 ③ Permutation Importance4.4.1 Permutation Importance의 개념4.4.2 Permutation Importance의 동작 원리4.4.3 Permutation Importance 정리4.5 소개 기술 ④ Partial Dependence Plot4.5.1 PDP / ICE의 개념4.5.2 PDP / ICE의 특장점과 주의점4.5.3 PDP / ICE 정리4.6 소개 기술 ⑤ Tree Surrogate4.6.1 Tree Surrogate의 개념4.6.2 의사결정 트리 대리 모델의 특ㆍ장점과 주의점4.6.3 의사결정 트리 대리 모델 정리4.7 소개 기술 ⑥ CAM / Grad-CAM4.7.1 CAM의 개념과 동작 원리4.7.2 Grad-CAM의 개념과 동작 원리4.7.3 관련 기술ㆍ파생 기술4.7.4 CAM / Grad-CAM 대응 모델4.7.5 CAM과 Grad-CAM 정리4.8 소개 기술 ⑦ Integrated Gradients4.8.1 Integrated Gradients의 개념과 동작 원리4.8.2 Integrated Gradients 대응 모델4.8.3 Integrated Gradients 정리4.9 소개 기술 ⑧ Attention4.9.1 Attention의 개념과 동작 원리4.9.2 Attention 대응 모델4.9.3 Attention 정리이번 장을 정리하며제5장 XAI 라이브러리 평가·선정5.1 XAI를 평가하는 기본적인 관점5.1.1 사용할 XAI를 결정하기 위한 관점5.1.2 범분야(Cross-Cutting) 평가 관점5.2 XAI 선정 방법5.2.1 XAI 선정 절차(Flow)5.2.2 목적ㆍ최소 조건과 부합하는가?5.2.3 중요 조건과 부합하는가?5.2.4 사용자가 만족할 수 있는가?5.3 일관된 관점5.3.1 평가 관점 ① ‘충실도’5.3.2 평가 관점 ② ‘신뢰성’5.3.3 평가 관점 ③ ‘만족도’5.3.4 평가 관점 ④ ‘Mental Model’5.3.5 평가 관점 ⑤ ‘실작업 친화성’이번 장을 정리하며제Ⅲ부 실천 매뉴얼제6장 LIME을 활용한 표 형식 데이터 국소 설명6.1 검증 목적6.2 라이브러리 준비6.3 검증 대상 데이터6.3.1 데이터 개요6.3.2 데이터 이해6.4 모델 학습6.4.1 전처리6.4.2 모델 학습6.5 LIME을 활용한 예측 결과의 설명6.5.1 LIME 사용 준비6.5.2 주요 파라미터6.5.3 LIME 실행6.5.4 다른 데이터에 대한 설명Column 이해 가능한 설명인가6.6 국소 설명의 수준을 조정하는 kernal width검증 결과 정리제7장 LIME과 Grad-CAM을 활용한 이미지 데이터의 국소 설명7.1 검증 목적7.2 라이브러리 준비7.3 검증 대상 데이터7.4 AI 모델 준비와 예측7.5 LIME을 활용한 설명7.5.1 LIME을 활용한 AI 모델 설명7.5.2 LIME 설명 가시화와 해석7.5.3 LIME을 활용한 설명 정리7.6 Grad-CAM을 활용한 설명7.6.1 Grad-CAM을 활용한 AI 모델 설명7.6.2 Grad-CAM 설명 가시화와 해석7.6.3 Grad-CAM을 활용한 설명 정리검증 결과 정리제8장 LIME과 Integrated Gradients 텍스트 분류의 국소 설명8.1 검증 목적8.2 라이브러리 준비8.3 검증 대상 데이터8.4 모델 학습과 예측8.5 LIME을 활용한 모델 해석8.6 Integrated Gradients를 활용한 방법검증 결과 정리Column Attention 가시화제9장 SHAP의 국소적·전역적 설명과 대응9.1 설명 준비9.1.1 환경 구축9.1.2 데이터 세트 준비9.1.3 모델 준비9.2 SHAP 값 산출과 이해Column LightGBM의 SHAP 연계 기능9.3 SHAP 값 가시화9.3.1 개별 예측에 대한 특징량의 영향9.3.2 데이터 세트 전체에 대한 특징량 반영 방법 Column 특징량 중요도 상호 비교?9.3.3 SHAP 값과 특징량의 상관 관계 가시화Column 변수 사이의 상호 작용을 활용한 상세 관찰 방법: SHAP Interaction aVlues9.4 SHAP 값의 추가적인 활용9.4.1 SHAP 값의 클러스터링을 활용한 데이터 분류9.4.2 차원 삭제에 따른 특징량의 조합 추출9.4.3 유사 데이터 검색과 신규성의 산출검증 결과 정리제10장 ELI5, PDPbix, Skater를 활용한 전역 설명10.1 다양한 전역 설명 XAI10.1.1 모델 설명을 수행하는 라이브러리10.1.2 개발 성숙도10.2 사전 준비10.2.1 XAI 실행을 위한 과정10.2.2 파이썬 환경 구축10.2.3 XAI 라이브러리 설치10.3 ELI5(Permutation Importance)10.3.1 ELI5는 어떠한 기술인가?10.3.2 ELI5 실행10.3.3 ELI5 평가10.4 PDPbox(PDPㆍICE)10.4.1 PDPbox는 어떠한 기술인가?10.4.2 PDPbox 실행10.4.3 PDPbox 평가10.5 Skater(Tree Surrogate)10.5.1 Skater는 어떠한 기술인가?10.5.2 Skater 실행10.5.3 Skater 평가검증 성과 정리제11장 LIME, SHAP의 한계와 해결책11.1 XAI 방법의 한계11.2 LIME 결과 안정성11.3 SHAP 계산 시간 대처 방안11.4 스파스(Sparse) 데이터 분석이번 장을 정리하며제Ⅳ부 장래 전망제12장 업무에서 필요한 설명 능력12.1 비즈니스상의 설명12.1.1 AI 활용 상황12.1.2 설명이 필요한 비즈니스 상황12.1.3 비즈니스상 필요한 설명 분류12.2 정밀도와 설명 능력의 Trade Off12.2.1 복잡한 사상의 설명은 근본적으로 복잡하다12.2.2 XAI에 과도한 기대는 금물12.3 설득력 키우기12.3.1 필요한 것은 ‘이해’가 아닌 ‘설득’?12.3.2 왜 XAI의 설득에 선형회귀가 사용되는가?12.3.3 XAI를 사용해 설득할 수 있는가?이번 장을 정리하며제13장 XAI의 전망13.1 사용자에게 XAI란13.1.1 XAI의 도달점13.1.2 XAI는 사용자에게 도움이 되는가?13.2 설득할 수 있는 설명을 위한 도전13.2.1 설득력 부족에 대한 이유13.2.2 지식 활용 방침Column 지식 클럽과 LOD13.3 XAI의 이상적인 모습13.3.1 분야를 넘나드는 발전 방향 기대13.3.2 XAI가 갖추어야 할 모습부록 - 환경 구축 방법A.1 파이썬 환경A.2 Jupyter notebook 환경 구축
|
XAI를 실무 현장에 적용하여 풀어낸 기술적 해설서 출간!이 책으로 당신의 AI를 한층 더 이해하고 업그레이드하라!본격적으로 AI가 업무 환경에 투입되고 있습니다. 이에 따라 AI 차세대 기술인 XAI(eXplainable AI, AI가 도출한 결과에 인간이 이해할 수 있는 이유나 근거를 제시하여, 인간과 AI를 연결하는 기술)도 동시에 각광받고 있습니다. 하지만 현재 공개된 다양한 XAI 소스 코드들 중 대부분은 연구자를 대상으로 한 논문이고, 실무 현장의 실정에 입각한 기술적 해설서는 그리 많지 않습니다. 특히 AI 업무 시 ‘공평성’, ‘책임성’, ‘투명성’이라는 3가지 요구사항을 갖추어야 하며, 그중에서도 ‘AI의 책임성’은 엔지니어와 사업가 양쪽에서 중요한 과제임에도 불구하고 책임성에 대한 기본적인 인식을 포함한 모든 내용들이 체계적으로 정리되지 못한 상황입니다.이 책에서는 실제로 AI에 어떠한 ‘설명’이 필요하고 XAI를 통해 무엇이 가능한지를 친절하게 설명합니다. XAI의 기본 이론 및 대표적인 XAI 기술을 소개하고, 소스 코드를 구현하면서 실무적인 XAI 지식도 습득할 수 있습니다. 또한 파이썬의 XAI 라이브러리인 LIME이나 SHAP 등의 사용 방법도 소개합니다. 이 책을 통해 당신의 AI를 한층 더 이해하고 발전시켜 보시기 바랍니다.
|