2024년 11월 12일 어느 뉴스에 우리나라 초대 AI윤리연구소장에 김명주 교수가 임명되었다는 기사가 실렸다. 그 기사 댓글에는 AI기술도 빈약한 우리나라에서 규제가 앞서지 않기를 바란다는 글이 올라왔다. 어릴 때 보고자란 "터미네이터"영화 시리즈는 AI로 인한 인간 멸망과 이에 대항하는 인간 대항군의 이야기를 그려냈다. 챗GPT를 비롯한 AI의 등장으로 우리 세상은 편리해졌지만 한편으로는 AI로 인해 터미네이터와 같은 세상이 오지 않을까 하는 걱정도 있다. 하지만 이미 우리집 거실에 있는 카카오 미니 스피커처럼 우리가 살고 있는 세상 곳곳에는 AI 기술이 실현되고 움직이고 있는 것이 현실이며, 이제 AI기술은 이미 우리 곁에 존재하고 이것을 과연 어떻게 운영해야하는가 하는 것이 중요한 시점이다. 이 책은 우선 인공지능이란 것이 무엇인가에 대해 이야기하면서 시작한다. 우리가 흔히 공상과학 영화에서 보는 인공지능이 있는가 하면 한 분야에서만 작용하는 인공지능도 있다. 이것을 강한 또는 약한으로 구별한다. 인공지능의 개념 설명에서 이제 우리가 가장 우려하는 "안전"에 대해서 이야기한다. 인공지능이 제대로 작동하지 않는다면 인공지능을 인간이 관리할 수 있도록 만들어두면 되지 않는가 할 수 있다. 네비게이션이 등장한 이후 우리는 이제 이전처럼 도로지도를 보고 표지판을 맞추어보며 운전하는 것이 어렵다. 이와 마찬가지로 AI가 인간의 임무 수행을 자주 대체하다 보면 AI의 품질을 점검해야 하는 인간은 AI를 효과적으로 평가하기 위한 기술을 잃게 된다. AI라는 도구에 의존하는 인간은 예전에 비해 오히려 능력이 감소하는데 이러한 사실을 알지 못하는 것이 더 위험하다. 또한 AI는 인간이 아니기에 피해의 대상을 "인간"으로 보지 않으며 피해자들에 대한 공감이 줄어들고 해악의 원인에 대한 거부감도 감소한다. 물론 AI보다 더 기계적인 싸이코패스 같은 인간도 존재하기는 하지만, AI는 "심리적 거리감"이 줄어들면서 인간을 숫자로 취급할 가능성이 더 높다. 무엇보다 터미네이터의 스카이넷 같은 인공지능에 의존하다가 핵전쟁이 일어나는 상황이 발생할 가능성을 아예 배제하기 힘들다. AI의 군사적 실수는 적군에 의해서 공격당하기보다 자국의 미사일을 더 두려워하게 됨에 따라 "자국 군대의 효율성이나 건전성까지"해칠수도 있다. 테슬라는 전기차에 이어 자율주행차를 연이어 내놓고 있다. 가령 자율주행차로 운전 중 사람을 치어 사망에 이르게 했다고 하면 과연 책임은 누가 지는 것일까? 일차적으로는 운행을 담당한 AI겠지만 사람이 아닌 이상 책임을 지게 할 수 없으며 운전자, AI를 만든 기술자, 자율운행을 허가한 정부관리자 등등 다양한 사람의 책임을 떠올릴 수 있다. 이와 관련하여 또 문제되는 것은 AI에 인간의 도덕성을 탑재할 수 있을까 하는 것이다. 도덕성을 싣는 것도 중요하지만 과연 어떤 도덕성을 지니게 해야할지도 문제가 된다. 인간 판사와 AI의 판결을 비교할 때 과연 AI가 공정하게 판결을 내릴지 여부도 문제가 된다. 그동안의 판례를 되짚어 볼 때 차라리 어느 면에서는 AI가 하는 것이 더 법대로 편견없이 공정하지 않을까 생각할 수도 있다. 하지만 AI를 만든 사람, AI가 참고한 데이터가 어떤 방식으로 적용되었는지, 혹은 얼마나 편향되었는지 여부에 따라 그 공정성 여부가 달라질 수도 있다. 사람들은 자신의 금전적 혹은 사회적 이익이 걸려있으면 윤리적으로 좋은 결정을 내리는 것이 어려워진다. 한편으로 앞서 기사에서 언급했듯이 윤리보다는 기술적인 발전을 우선시하는 경향도 무시할 수 없다. 원자폭탄 연구를 했던 오펜하이머는 "기술적으로 매력적인 일이 눈에 띄면 일단 달려들어 실행에 옮긴다. 그 기술로 무엇을 할지 따져보는 것은 기술적인 성공을 거두고 나서다."라고 말했다. "기술적인 매력"으로 인해 도덕적인 문제가 가려지는 현상은 AI로 인한 기술의 발전에 큰 우려를 가져온다. 이 책은 결국 "우리에게 달려있다"고 말한다. AI와 관련하여 AI기술의 발전과 도덕적인 면에 있어서 감독과 주연은 우리 인간이며, AI는 우리와 함께 가는 존재일 뿐임을 확실히 해야한다. 인간의 도덕적인 의사결정과 지능이 무엇보다 우선되는 AI시대에 직면했음을 인식해야 할 것이다. |
![]() 바야흐로 AI의 시대다. 챗GPT가 뭐냐고 물었던 게 엊그제같은데 이제 챗GPT를 문서 작성 비서로 쓰는 일이 흔하다. AI일러스트와 영상을 이용한 기발한 콘텐츠들이 SNS에 넘쳐나니 이제는 모두 자연스럽게 받아들이는 분위기다. 초창기 AI일러스트의 가장 큰 문제가 뭐였는가? 바로 기존 인간 일러스트레이터들의 그림을 학습해서 그림체를 거의 똑같이 구현해낸다는 점이다. 일러스트레이터들의 자리를 위협하고 저작권에 문제가 생긴다는 문제제기가 많았다. 인공지능을 활용한 자율주행자동차는 이미 절반정도는 상용화되었다. 차간 거리를 재거나 특정 속도를 유지하고 달리다가 앞에 보행자나 다른 차가 끼어들면 멈추기도 한다. 편리하고 신박한 기능들이 많지만 여전히 인공지능을 다 믿지는 못한다. 인공지능이 학습하지 못한 변칙적인 상황이 되면 제기능을 못하고 보행자를 치거나 사고가 날 수 있기 때문이다. AI를 이용한 노래부르기, 사진으로만 있는 위인들의 얼굴을 움직이게 만들어서 실제 살아 생전의 모습을 구현해내는 기술까지. AI라는 걸 알아도 신기하고 모르고 보면 속이는 건 순식간이다. 하루가 다르게 발전하는 AI기술을 바라보며 우리는 모두 마음 속에 한가지 불편함을 가지게 된다. '이래도 되는 건가?' 왜 그런 마음이 드는 걸까? 그 이유를 이 책에선 5가지로 나눠서 설명한다. 1. 인공지능은 안전할 수 있을까? 2. 인공지능은 프라이버시를 존중할 수 있을까? 3. 인공지능은 공정할 수 있을까? 4. 인공지능에 책임을 물을 수 있을까? 5. 인공지능에 인간의 도덕성을 탑재할 수 있을까? AI는 인류에게 필요한 기술이고 발전 가능성이 무한하지만 위의 문제들을 제대로 직면하고 해결해야 한다. 인간이 만든 기술이기 때문에 그걸 통제하고 보다 도덕적으로 만들어내는 것도 인간만이 할 수 있다. 이 책은 AI의 부정적인 측면을 많이 보여주지만 그럼에도 불구하고 개선될 수 있는 여지와 희망, 우리가 할 수 있는 일들을 얘기해준다. 'AI의 위험성을 과소평가해도 안 되지만 그렇다고 과대평가해서도 안 된다. 위에서 나열한 도덕 문제(안전성, 공정성, 프라이버시, 자유, 투명성, 기만)를 신중하게 다른다면 대체로 AI는 안전하고 윤리적으로 만들어지고 사용될 수 있다. 목욕물을 버리다가 AI 아기까지 버릴 수는 없다. 그러지 않기 위해서 이제부터 우리는 당면한 도덕 문제를 조명할 것이고, 모든 사람이 AI 윤리에 더 많은 관심을 기울여야 하는 이유를 제시할 것이다.' _ 서문 중 이 책은 '인공지능은 무엇인가?'라는 기본적인 개념부터 잡아주고 시작한다. 바둑을 두는 인공지능 알파고와 챗GPT는 모두 AI라고 불리지만 다른 범주에 속한다. 좁은AI, 범용AI, 강한AI로 나뉘는 AI들은 쓰임에 따라 다른 역할을 수행한다. 연산 전략을 통해 특정한 임무를 수행하도록 설계된 AI를 좁은AI(알파고, 체스를 두는 딥블루 등), 챗GPT, 빙챗, 바드 처럼 오픈AI 챗봇은 범용AI로 분류된다. 우리는 AI에 이미 익숙해졌지만 그것에 대해 이렇게 깊이있게 생각할 기회는 없었다. AI철학서라는 말도 어색하지만 이제는 익숙해져야 할 것 같다. 우리는 앞으로 AI없이는 살아갈 수 없을테고 그로 인해 생길 문제를 미리 인지하고 있어야 한다. 'AI 초지능에 대한 우려는 AI가 지금보다 훨씬 뛰어난 능력을 갖게 되면 무슨 일이 벌어질지 모른다는 두려움에서 비롯된다. 이와달리 오늘날 AI시스템의 안전 문제에 대한 우려는 AI가 제대로 작동하지 않는 부분에 대한 인식에서 비롯된다.'_p.83 '프라이버시 역설은 AI의 프라이버시 위협 중에서 가장 강력할지 모른다. AI의 밝은 전망에 대한 기대감은 프라이버시를 침해하는 문화 생태계의 형성에 기여했다. 프라이버시 침해가 워낙 지속적으로 이루어진 탓에 수많은 사회 구성원이 이를 막기 위해 별다른 노력을 기울이지 않고 있다.'_p.155 막연한 불안감과 함께 AI시대를 맞이하게 되면서 이 현상을 긍정적으로 봐야할지 말지 고민이 많았다. 부정적으로 본다한들 AI급류를 막을 방법은 없다. 그렇다면 정면으로 마주하고 도덕적으로 사용하는 방향성을 가져야 하는 게 맞다. 더 민주적인 사회를 위해 함께 AI윤리를 읽기를 바란다. *도서를 제공받아 솔직하게 작성한 서평입니다 |
AI의 놀라운 발전을 보며 호기심이 생기는 동시에, 나는 어디까지 따라갈 수 있을까, 혹시 모르는 사이 도태되는 건 아닐까 하는 불안감도 스쳤습니다. 과거에는 부동산이 부의 패러다임이었다면, 이제는 AI를 잘 활용하는 사람과 그렇지 못한 사람 사이에서 격차가 벌어질 것이라는 전망도 나오고 있죠. 그렇다면 AI 기술이 발전하는 만큼, 우리는 도덕적인 문제도 함께 고민해야 하지 않을까요? **《도덕적인 AI》**는 인공지능이 가져올 변화 속에서 안전, 프라이버시, 공정성, 책임, 도덕성 같은 중요한 문제들을 짚어주는 책입니다. 연구 사례와 현실적인 과제를 통해 AI 시대에 우리가 놓쳐서는 안 될 것들이 무엇인지 생각해 보게 만듭니다. 휴머노이드 로봇이 나날이 발전하는 지금, 터미네이터나 멋진 신세계 같은 이야기가 정말 영화 속에서만 가능한 일일까요? 이 책을 읽으며 AI의 밝은 미래만 꿈꾸기보다는, 우리가 간과하고 있는 것은 없는지 스스로에게 질문을 던져보게 되는 책이었습니다. |
![]() 일상에서 우리가 하는 크고 작은 일들을 스마트폰으로 처리하게 되면서 자연스럽게 따라 온 인공지능. 데이터가 축적되면서 인공지능의 학습 능력은 빠르게 발전하고 있고, 그 사실 하나만으로도 다소 위협적이게 느껴진다. 인간의 삶에서 단순하고 반복되는 일들이 점차 인공지능으로 대체되어 간다는 것을 잘 알고 있기 때문이겠지. 인공지능이 앞으로 우리 삶에 더욱 깊이 관여하는 시대가 되었을 때는 지금과 달리 스스로 판단하고 결정을 짓는 일들이 생기게 될 것이다. 역사를 통해 우리가 배웠듯, 기술의 혁신적 변화는 빛과 어둠이 공존한다. 인공지능의 발전이 어떤 변화를 가져올지, 그 변화가 서서히 찾아올지 우리는 알지 못한다. 그렇기 때문에 인공지능 발전이 다소 두렵게 느껴지는지도 모르겠다. 도덕적인 ai라는 책은 인공지능이 가져올 도덕적 피해를 우려하는 신경과학자, 데이터 과학자와 철학자가 공동으로 집필한 책이다. 인공지능은 인간의 삶에 관여하는 것이기 때문에 다각도로 살펴보는 것이 필요하다고 생각하는데, 이 책이 바로 인공지능을 균형있게 설명하고 있다. |
정말로 무서운 세상이다. 처음 AI가 알려지기 시작하면서 긍정적인 면으로 관심이 많았다. 특히 오래된 사진의 복원이나 그 사진의 3D로 입체화 하는 것, 그것 뿐만 아나라 이미 사망한 가족을 가상의 세계에서 만나게 해주는 기술 등은 정말 경이롭기까지 했다. 그러나 최근들어 AI가 과연 좋기만한 것인가에 대해서는 입장이 많이 바뀌었다. 솔직하게 말하자면 더 이상은 사용하지 않았으면 좋겠다는 생각이 든다. 얼마전 학원광고 전단지가 집에 왔다. 수강생들의 성적 결과 등이 사진과 함께 나와 있었는데, 신랑이 그걸 보더니 요즘 아이들은 공부도 잘하고 인물도 좋다면서 감탄을 했다. 궁금해서 나도 함께 보니 아이들의 사진 80%는 AI였다. 신랑도 나이가 그렇게 많은 편도 아닌데, 실제사진과 AI사진을 구분 못하는 것을 보고 충격을 받았다. 가장 큰 문제는 이 책에서도 소개되어 있는 딥페이크 문제이다. 딥페이크가 문제인 건 우리아이도 온라인상에서 쉽게 피해를 입을 수 있다는 점이다. 아이에게 얼굴사진은 SNS에 절대 올리지 말라고 하며, 우리가 살고 있는 정보를 유추할 수 있는 그 어떤 것도 올리면 안된다고 하는데 과연 이렇게 사는게 맞는건가 싶다. 이 책을 통해서 얻어낸 정답은 없다. 극단적인 해결방법 선택도 없다. AI를 활용하는 사람들의 선택이 중요하다. 부디 AI로 인해 삶이 삭막해지지 않길 바랄뿐이다. ![]() |
▶계기 요즘, 시시각각 발전하는 AI기술로 그 내용을 따라가기에 너무 바쁩니다. 이 책을 읽는 도중에 ’딥시크R1’이 오픈소스로 공개되었고 사용자의 정보를 과하게 수집한다는 염려로 국가별 접속을 차단하는 일이 있었습니다. 또한 오픈AI는 ‘딥리서치‘를 공개했는데 박사급의 깊이있는 답변을 제공하여 ‘AI에이전트’로써 전문가사람을 대체할 가능성을 보여주었습니다. 그러나 AI는 단시간에 우리의 일상을 크게 변화시키고 있습니다. 저 역시 인생에 생길 변화가 두렵습니다. 그래서 어떠한 도덕적, 윤리적 염려가 있고 저자들의 제시한 방향이 무엇일까 궁금해서 책을 집어 들었습니다. ▶추천의 이유 저자들은 철학자, 데이터과학자, 컴퓨터과학자로서 다른 분야의 3인의 전문가입니다. 직접적인 해결책보다는 우리가 가야하는 큰 방향을 제시해 준다는데 의의가 있습니다. 내용이 어렵지 않으니 AI시스템 관련 종사자, 이용자, 투자자들이 읽어볼 만 한 책입니다. 개인적으로 7장은 AI뿐아니라 나의 직무의 사회적윤리와 직업적윤리를 다시한번 돌아보게해서 도움이 되었습니다. 일반인인 저의 눈에는 각 분야에서 AI를 적용시 발견되는문제점, AI산업의 개발환경의 문제점들을 현실적으로 제기했고 차근차근 쉽게 설명하여 철학적 윤리적으로 잘 훑었다는 인상을 받았습니다. ▶1장 저자들은 우선 AI에 대한 개괄적인 설명을 합니다. 먼저 정의를 내립니다. 윤리적,도덕적 문제는 AI의 범위, 기술심화도 등과 무관하게 발생하기에 이 책에서는 포괄적인 정의를 사용합니다. [인간이 규정한 일련의 목표에 대해서 충분히 신뢰할 만하게 예측과 추천 및 결정을 수행하여 실제 또는 가상 환경에 영향을 미치는 기계 기반 시스템] 그리고 현시점에서 AI의 종류, 학습방법 및 한계점 등을 이야기합니다. 여기서 중요한 점은 우리가 AI의 작동(추론)방식을 해석하는 것이 점점 힘들어지고 있어서, AI가 실수를 해도 그 원인을 파악하지 못하게 되어 향후 유사한 실수를 예방하기 어렵다는 점, 따라서 AI가 하지 못하는 일을 알아내는 것이 어려워지고 있다는 점을 언급합니다. 마지막으로 AI시스템의 개발과정 3단계를 이야기합니다. (1) 알고리즘 생성 by 수학자 (2) 모형훈련 by 엔지니어 (3) 제품화 by 기업 ▶2-5장 저자들은 본격적으로 AI가 갖는 아래의 문제점을 제기합니다. (1) 안전한가 안전문제유형을 아래의 9가지로 분류하고 AI의 실수, 인간이 AI를 지나치게 신뢰, 인간의 주의분산, 인간의 실수, 인간의 탈숙련화, 해악편향, 유해한 집단의 영향력 강화, 새로운 유형의 해악, AI-AI상호작용 각 분야별로 문제유형별 케이스를 열거합니다. 작년에 건강검진 받은 경험이 떠올랐습니다. 백내장소견(AI의실수)으로 나와서 건진후 안과를 찾았는데 의사쌤 말씀이 건진시 영상판독을 AI가 해서 안구촬영시 간혹 빛이 들어가면 정상도 백내장위험군으로 오인한다고 하네요. 웃고 넘어간 에피소드였지만 이 책을 읽고 나니 ‘만약 기술발전으로 AI가 실수했는데 인간의 탈숙련화 가 이루어져 의사가 발견도 못한다면???‘ 을 상상하니 끔찍하네요. (2) 프라이버시를 존중하는가 책은 다양한 AI의 프라이버시 침해형태와 방지책의 무용함을 이야기합니다. 가장 문제는 어떤 일이 프라이버시 침해라는 걸 알면서도 다른 필요나 의무와 상충되는 상황에 직면하면 그것이 삶에서 더 중요하기에 프라이버시를 포기하는 경우입니다. 또한 데이터통제력을 앗아가는 힘이 강해서 프라이버시 보호의 노력이 보잘것 없다고 생각하는 경우라고 합니다. (3) 공정할 수 있을까 편향된 사회를 학습한 AI는 더 편항된 결과를 출력할 수 밖에 없기에 완벽하게 공정한 AI시스템은 불가능하다고 이야기합니다. 게다가 ’공정’이라는 개념조차도 수학적으로 정량화하고자 한다면 보는 관점에 따라 다른 공정성의 기준이 서로 상충하는 문제가 발생한다고합니다. 하지만 저자들은 AI가 나오면서 인간이 하는 의사결정의 부정의를 더 알게 되었고 이를 개선하기 위한 움직임이 있는 상황에서 인간의 편향을 개선할수 있는 잠재력을 기대합니다. (4) 책임을 물을수 있을까 만약에 AI 사용으로 인해 문제가 발생할 경우 AI자체, AI제작자, AI사용자 누구에게 책임을 물어야하는지 문제를 제기하며 ‘책임공백’의 가능성을 염려합니다. 혁신을 업악하지 않되, 불가능한 피해를 최소화하는 미지근한 책임준칙의 필요성을 제기합니다. ▶ 6,7장 및 결론 인간의 도덕성을 탑재할 수 있을까 중요한 도덕적인 판단을 해야하는데 우리의 상황이 올바른 판단을 내리기 힘든 평화롭지 못한 상황이라면, 인간의 도덕성을 학습한 AI에게 도움을 받을수 있는지에 대한 방법을 고찰합니다. 최종결정권을 AI에게 넘기자는 것이아닌 의사결정의 보조 자료로 흔한 우리의 오류인 (무지, 혼동, 편향)을 교정해주는 AI를 개발하여 도덕적가치에 더 부합하는 인공적으로 개선된 민주주의(AID)를 추구해야 한다고 합니다. 물론 이런 시스템의 개발은 어렵고 힘든 길이겠지만요. 우리는 무엇을 할 수 있을까 AI는 시스템안에서 작동하지만 이것의 제작과 기능은 사회속에서 이루어지므로 저자들은 AI를 대하는 우리의 자세를 이야기합니다. AI제작환경에서 의사소통의 제한, 빠른 도전과 빠른 실패를 권장하는 업계관행, 윤리적측면 고려 보류 문화와 윤리 지표의 부재, 담당자들의 윤리적 의사결정에 대한 무지함 등이 현재 만연되어 있다고 이야기 합니다. 따라서 우리의 태도 개선이 필요한데 도덕적인 AI기술도구 확장 도적적인 AI구현 영향력 높이는 관행 전파 도덕적 시스템 사고의 교육기회 제공 제품에 대한 시민참여 유도 애자일 공공정책 전개 등의 방법론을 제시합니다. 정확한 답의 제시는 아닙니다. 개발이 진행중인 AI 와 성숙중인 관련산업을 대할때 어떻게해야 기존 사회의 패러다임과 마찰을 줄이고 잘 나아가냐입니다. 기술개발을 쫒아가기 바쁘고 그와 관련된 투자만을 생각했던 저에게 다른 물음을 던져주는 책이었습니다. 본 글은 김영사의 도서지원을 받아 작성되었습니다. |
AI가 우리에게 던지는 물음은 그것을 바라보는 시각만큼이나 참 다양하다는 생각이 든다. 한편에서는 AI의 그 모든 가능성과 기대를 담아 낙관론을 펼치며, 또 다른 한편에서는 잠재적인 위협과 위험성을 우려하고 있기도 하다.
하지만 그 어느 쪽도 AI가 만들어가는 세상을 온전히 설명하는 방식은 되지 못할 것이다. AI는 이미 우리 삶의 많은 부분에 녹아들어 있으며, 발전가능성과 잠재적 위협 요소 모두를 간직한 채 인간의 삶을 계속해서 바꿔갈 것이기 때문이다.
그리고 AI가 인간의 삶과 연결되어 있는 한 AI도 인간의 도덕과 윤리로부터 유리될 수 없다는 중요한 문제에 이르게 된다.
<도덕적인 AI>는 바로 이러한 문제 의식에서 출발한 책이다. 책은 신경과학자, 철학자, 컴퓨터과학자인 저자들이 AI의 도덕적 피해를 최소화하면서 AI의 혁신을 증진하는 방법에 대한 실행 가능한 제안을 제공한다는 목표 아래 AI가 제기하는 다양한 윤리 문제를 흥미로운 사례와 함께 펼쳐 보인다.
1장 인공지능은 무엇인가? 2장 인공지능은 안전할 수 있을까? 3장 인공지능은 프라이버시를 존중할 수 있을까? 4장 인공지능은 공정할 수 있을까? 5장 인공지능에(혹은 AI 제작자와 사용자에게) 책임을 물을 수 있을까? 6장 인공지능에 인간의 도덕성을 탑재할 수 있을까? 7장 우리는 무엇을 할 수 있을까? “모든 AI 시스템은 도덕과 관련된 영향을 미칠 수밖에 없다. 도덕적인 AI를 떠받치고 있는 생각은 바로 다음과 같다. 도덕적인 결과를 초래하는 AI 시스템에 대한 결정은 우연이나 자동으로 내려지는 대신에 의도적이고 신중하게 내려져야 한다는 것이다. 도덕적인 AI는 오로지 기술적인 문제도 아니고 오로지 윤리적인 문제도 아니다. 다양한 학문 분야와 사회적 역학 관계 그리고 인간 본성의 여러 측면과 교차하는 복잡한 문제다. AI를 사회적 가치에 부합하게 하려면 다양한 이해관계자의 상호작용과 AI의 사회적 맥락을 고려하는 시스템 차원의 접근 방식을 도입해야 한다.”
우리가 도달해야 하는 AI의 미래는 AI가 가져올 만만찮은 도전을 외면하거나 무시하는 방식으로가 아니라 그 모든 도전에도 불구하고 AI가 인간을 위해 보다 많은 일을 할 수 있도록 접근성을 높이는 장본인이 여전히 인간임을 기억하며 인간에 관계된 다양한 윤리 문제를 AI가 함께 해결해 갈 수 있도록 만드는 것일 테다.
김영사 출판사로부터 제공받은 도서를 읽은 후 작성한 리뷰입니다.
#도덕적인AI #AI #도덕 #윤리 #북스타그램 #책스타그램 #서평단활동 #도서제공 |
도덕적인 AI 세계적인 철학자, 신경과학자, 컴퓨터과학자가 함께 쓴 균형 잡힌 'AI 윤리' 입문서! 인공지능 윤리를 위한 일곱 가지 물음에 대한 논의!! 1장 인공지능은 무엇인가? 2장 인공지능은 안전할 수 있을까? 3장 인공지능은 프라이버시를 존중할 수 있을까? 4장 인공지능은 공정할 수 있을까? 5장 인공지능에(혹은 AI 제작자와 사용자에게) 책임을 물을 수 있을까? 6장 인공지능에 인간의 도덕성을 탑재할 수 있을까? 7장 우리는 무엇을 할 수 있을까? 인공지능이 우리의 프라이버시를 침해하는 일, 편향된 정보를 바탕으로 판단, 의료처치의 우선순위 결정, 인간 판사와의 공정성 대결, 인공지능에게 책임을 묻는 일 등 인공지능과 관련한 흥미로운 사안들이 가득한 책이다. AI에 대해 느꼈던 막연한 우려감들을 구체적인 사안들로 파고드니 무슨 추리 소설을 읽는 것처럼 몰입감이 느껴졌다. 아이들과 토론도 하면 더 좋을 듯~~ 무엇보다 핵심은 이러한 사안의 근저에 있는 도덕성을 AI에 탑재하여 상용할 수 있는지를 다각적으로 다룬다. P.190 AI 기술 도구를 올바르게 사용하려면 수많은 사회적, 조직적 과제가 해결되어야 한다. 그럼에도 AI에는 인간의 편향을 개선할 수 있는 잠재력이 있다. AI가 공정성에 미치는 위험은 심각하지만 관리하지 못할 정도는 아니며, 이는 적절하게 사용한다면 사회에 도움이 될 수 있다는 점을 시사한다. P.246 AI 시스템을 도덕적으로 작동하게 하려면 추가적인 문제를 해결해야 한다. 그 추가적인 문제란, 인간과 동일한 도덕적 판단을 내리는 AI는 인간과 동일한 도덕적 실수 또한 저지른다는 것이다. AI가 윤리적 가치에 부합하는 안전한 방식으로 작동할 수 있도록 인간의 도덕성을 탑재하기 위한 일반적인 전략을 설명해 준다. 또한 AI가 우리 삶에 윤리적인 영향을 미치도록 하기 위한 전략들의 여러 간극과 오류들을 꼼꼼하게 점검하며, 도덕적인 AI의 사고는 인간의 도덕적인 합의와 의사결정에 달려 있음을 이야기한다. 그리고 AI를 윤리적으로 사용하기 위해 AI 관여자들의 소통과 정보를 공유하려는 노력, 사회적 맥락을 고려하는 여러 시스템 차원의 접근 방식이 필요함을 강조한다. 이렇게 AI에 대한 전반적인 이해에 도움이 크게 되는 책이다! AI는 기술적 혁신의 이점과 잠재적인 위험성이 공존하니 그 이용에 더 촉각이 곤두선다. AI는 피할 수 없이 우리 삶 전반에 더 파고들 것이다. 다만 이 책에서 논의한대로 더 공정하고 민주적인 AI가 되어 인간과 조화롭게 공존하길~~ AI가 더 긍정적인 영향을 이끌 수 있도록 책임감 있게 관리되길 바란다. #도덕적인AI#김영사#서평단#도서협찬#AI#인공지능#과학교양 |