이미 소장하고 있다면 판매해 보세요.
|
설명 가능한 AI는 실현 가능한가?
01 설명 가능성이란 무엇인가: 기술적 개념과 오해 02 블랙박스 AI의 기술적 한계: 설명이 불가능한 구조인가? 03 법은 설명을 요구할 수 있는가: 설명 가능성의 규범화 04 AI 설명이 미치는 영향: 책임과 정당성의 연결 고리 05 설명이 차별을 해명할 수 있는가: 편향과 불공정성의 진단 도구 06 설명의 허구: 기업의 책임 회피 도구가 되는가? 07 국제 비교: EU, 미국, 일본의 설명 가능성 규범과 사례 08 설명 가능 AI와 인간-기계 상호 작용의 재설계 09 설명의 비용과 현실성: 어느 수준까지 강제할 수 있는가 10 설명 가능성 이후: 책임 사슬, 데이터 투명성, 거버넌스로 확장하기 |
김윤명의 다른 상품
|
어떤 기준은 형식적 평등(formal equality)을 강조하고, 어떤 기준은 실질적 평등(substantive equality)을 요구한다. 가령 “모두에게 같은 기준을 적용했다”는 설명이 법적으로는 정당해 보일 수 있지만, 사회학적으로는 기존 불평등을 고착화하는 ‘차별의 재생산’이 될 수 있다. 설명 기술은 이러한 다층적 판단 구조를 고려하지 않고 결과 수치에 집중하는 경향이 있다.
결국 차별 탐지 알고리즘은 사회 과학적 통찰 없이는 법적 정의에 부합하는 설명을 제공하기 어렵다. 법은 인간 존엄성과 사회적 약자 보호를 핵심 가치로 삼기 때문에 단지 알고리즘이 출력한 수치나 시각화를 넘어, 왜 그러한 결과가 나왔는지, 그것이 사회 구조 속에서 어떤 의미를 가지는지를 종합적으로 해석해야 한다. 기술적 설명이 정답을 제공하는 것이 아니라 사회적 판단을 위한 자료로 기능해야 하는 이유다. -05_“설명이 차별을 해명할 수 있는가: 편향과 불공정성의 진단 도구” 중에서 설명 가능성이라는 개념은 종종 기술적으로 설명 가능한 구조의 존재를 의미하는 것으로 오해된다. 설명이 존재한다는 것과 설명이 인간에게 이해된다는 것은 전혀 다른 문제다. 인간 사용자에게 ‘이해 가능한 설명’이란 단지 정보를 제공받는 것을 넘어 그 정보를 자기 맥락 속에서 납득할 수 있도록 해 주는 과정을 포함한다. -08_“설명 가능 AI와 인간-기계 상호 작용의 재설계” 중에서 설명 가능성은 AI 시스템의 결과를 이해하는 출발점이지만 법적 책임을 묻기 위해서는 보다 깊은 층위의 ‘책임 추적성’이 필요하다. 이는 결과 중심의 설명을 넘어서 AI 개발·운영 과정 전반에 걸친 책임의 흐름을 기록하고 규명할 수 있어야 한다는 요구다. 책임 추적성은 입력 데이터의 출처, 모델 개발의 의사 결정, 알고리즘의 버전 변화, 시스템 운영 중 발생한 수정·보완 조치 등의 모든 이력을 투명하게 남기는 것을 의미한다. 이 과정은 단지 사후 설명을 위한 것이 아니라 예방적 통제를 위한 기반이기도 하다. -10_“설명 가능성 이후: 책임 사슬, 데이터 투명성, 거버넌스로 확장하기” 중에서 --- 본문 중에서 |
|
《설명 가능한 AI의 허와 실》은 인공지능 시대에 필요한 새로운 책임 구조와 ‘설명’의 기준을 다룬다. 설명 가능성을 중심 개념으로 삼아, AI 판단을 어떻게 이해하고 누구에게 어떤 방식으로 책임을 물을 것인지에 대한 법적·기술적·사회적 쟁점을 종합적으로 분석하며, 설명을 기술적 기능이 아닌 권리와 통제의 언어로 재정의한다.
설명 가능한 AI(XAI)는 AI가 어떤 이유로 특정 결정을 내렸는지를 인간이 이해할 수 있는 방식으로 제시하는 기술을 의미한다. 그러나 현재의 XAI는 복잡한 딥러닝 모델을 단순화한 근사 모형에 의존해 실제 판단 구조를 충실히 보여 주지 못한다. 이 때문에 XAI가 제시하는 설명은 ‘그럴듯해 보이는 설명’에 머무르며, 판단의 진짜 근거를 밝히기보다는 책임을 흐릴 위험이 있다. 반면 설명 가능성은 AI 결정의 기준과 과정을 이해·검증·반박할 수 있는 능력을 의미하며, 권리 보장과 책임 귀속의 핵심 전제가 된다. 의료·금융·행정 등 고위험 영역에서는 특히 이러한 설명 가능성이 절차적 정당성과 기본권 보장을 위해 필수다. 이 책은 기술적 설명과 법적 설명의 차이, 블랙박스 AI의 구조적 불투명성, 설명권의 법적 근거, 그리고 AI 결정에서 누가 잘못했는가, 누구에게 불공정했는가를 밝혀내는 판단 구조를 함께 분석하며 XAI의 한계를 비판적으로 검토한다. 또한 EU 「AI법」과 「GDPR」, 미국·일본의 규범과 비교해 설명 가능성이 국제적으로 어떻게 제도화되고 있는지 정리한다. 나아가 설명의 비용 구조, 고위험·저위험 AI의 차등 규제, 독립 감시 기구와 시민 참여형 거버넌스 등에 대해 다각도로 논의하며, XAI를 단순한 기술적 부가 기능이 아니라 사회적 통제와 책임을 가능하게 하는 규범적 구조로 재구성해야 한다는 점을 분명히 한다. |