이 상품은 구매 후 지원 기기에서 예스24 eBook앱 설치 후 바로 이용 가능한 상품입니다.
[1부_ 인공지능 위험관리의 이론과 실제 적용 사례]1장 현대의 머신러닝 위험관리_1.1 법률 및 규제 환경 개요_1.2 권위 있는 모범사례_1.3 AI 사고 _1.4 머신러닝 위험관리를 위한 문화적 역량_1.5 머신러닝 위험관리를 위한 조직 프로세스_1.6 사례 연구: 질로우 아이바잉 사업의 흥망성쇠 _1.7 참고 자료2장 해석 및 설명 가능한 머신러닝_2.1 해석 가능성 및 설명 가능성에 관한 중요 아이디어_2.2 설명 가능한 모델_2.3 사후 설명_2.4 실무에서 사후 설명의 고질적 문제_2.5 설명 가능한 모델과 사후 설명의 결합_2.6 사례 연구: 알고리즘 채점_2.7 참고 자료3장 안전성과 성능을 높이는 머신러닝 시스템 디버깅_3.1 훈련_3.2 모델 디버깅_3.3 배포_3.4 사례 연구: 자율주행차 사망 사고_3.5 참고 자료4장 머신러닝 편향관리_4.1 ISO 및 NIST의 편향 정의_4.2 미국의 머신러닝 편향에 대한 법적 개념 _4.3 머신러닝 시스템의 편향을 경험하는 경향이 있는 사람_4.4 사람들이 경험하는 피해_4.5 편향 테스트_4.6 편향 완화_4.7 사례연구: 편향 버그 바운티_4.8 참고 자료5장 머신러닝 보안_5.1 보안 기초_5.2 머신러닝 공격_5.3 일반적인 머신러닝 보안 문제_5.4 대응책_5.5 사례 연구: 실제 우회 공격_5.6 참고 자료[2부_ 인공지능 위험관리 실행하기]6장 설명 가능한 부스팅 머신과 XGBoost 설명_6.1 개념 복습: 머신러닝 투명성_6.2 일반화가법모형 계열의 설명 가능한 모델_6.3 제약조건과 사후 설명이 있는 XGBoost_6.4 참고 자료7장 파이토치 이미지 분류기_7.1 흉부 엑스레이 분류 설명_7.2 개념 복습: 설명 가능한 모델과 사후 설명 기법_7.3 설명 가능한 모델_7.4 파이토치 이미지 분류기 훈련 및 설명 _7.5 결론_7.6 참고 자료8장 XGBoost 모델 선택 및 디버깅_8.1 개념 복습: 머신러닝 디버깅_8.2 더 좋은 XGBoost 모델 선택하기_8.3 XGBoost 민감도 분석_8.4 XGBoost 잔차 분석_8.5 선택한 모델 개선하기_8.6 결론_8.7 참고 자료9장 파이토치 이미지 분류기 디버깅_9.1 개념 복습: 딥러닝 디버깅_9.2 파이토치 이미지 분류기 디버깅하기_9.3 결론 _9.4 참고 자료10장 XGBoost를 사용한 편향 테스트 및 개선_10.1 개념 복습: 편향관리_10.2 모델 훈련 _10.3 모델의 편향 평가_10.4 편향 개선_10.5 결론_10.6 참고 자료 11장 레드 팀 XGBoost_11.1 개념 복습_11.2 모델 훈련_11.3 레드 팀 공격_11.4 결론_11.5 참고 자료[3부_ 결론]12장 고위험 머신러닝에서 성공하는 방법_12.1 프로젝트 참여 대상_12.2 과학 대 공학 _12.3 발표된 결과와 주장에 대한 평가 _12.4 외부 표준 적용하기_12.5 상식적인 위험완화_12.6 결론_12.7 참고 자료부록 찾아보기
|
Patrick Hall
James Curtis
Parul Pandey
장기식의 다른 상품
김경환의 다른 상품
AI 규제법안 시대, 고위험 애플리케이션에서 ML 기술을 책임감 있게 활용하는 방법유럽연합 의회는 인공지능 기술을 안전하고 윤리적으로 사용할 수 있도록 하는 규제법안인 인공지능법(AI Act)을 최근 승인했습니다. 이 법안은 인공지능 시스템의 개발, 배포, 사용에 대한 엄격한 규제를 마련해 인공지능 기술의 잠재적 위험성을 관리하고, 사람 중심의 인공지능 기술 발전을 촉진할 목적으로 제정되었습니다. 이 법안은 인공지능 기술을 ‘허용할 수 없는’ 기술부터 고위험, 중위험, 저위험으로 분류하며 ‘허용할 수 없는’ 기술은 금지합니다.이 책은 저자들이 경험한 실제 사례와 연구 결과를 통해 머신러닝 기술을 고위험 애플리케이션에 성공적으로 적용하는 방법을 보여줍니다. 또한, 유럽연합의 인공지능 규제법안의 주요 내용과 미국 위험관리 프레임워크 관련성을 분석하고 법안 준수를 위한 구체적인 방안을 제시합니다. 주로 다루는 내용은 다음과 같습니다. ㆍ 편향 및 윤리 문제: 모델 개발 과정에서 발생할 수 있는 편향과 윤리 문제 해결 및 완화 방법ㆍ 모델 설명 및 책임감: 고위험 애플리케이션에서 머신러닝 모델의 설명 가능성과 책임감 확보 방법ㆍ 모델 평가 및 검증: 고위험 애플리케이션에서 머신러닝 모델의 성능과 신뢰성 평가 및 검증 방법ㆍ 모델 배포 및 관리: 고위험 애플리케이션에서 머신러닝 모델을 안전하고 효율적으로 배포 및 관리하는 방법주요 내용ㆍ 책임 있는 AI를 위한 기술적 접근 방식 이해하기ㆍ 성공적이고 영향력 있는 AI 위험 관리 사례를 만드는 방법 알아보기ㆍ AI 기술 채택을 위한 기존 표준, 법률 및 평가 관련 기본 가이드 확인하기ㆍ 새로운 NIST AI 위험 관리 프레임워크 살펴보기ㆍ 깃허브 및 코랩의 대화형 리소스 활용하기
|