이미 소장하고 있다면 판매해 보세요.
프롤로그 / 서문
1부_예언들(“인간은 AI가 학습하는 세계를 잘 표본화하는가?”) 1장_표현 2장_공정 3장_투명성 2부_행위자(“현실 세계와 AI 세계를 정렬하기 위해 인간은 어떤 노력을 하는가?”) 4장_강화 5장_조형 6장_호기심 3부_규범성(“AI의 발전을 위해 인간에게 필요한 자격은 무엇인가?”) 7장_모방 8장_추론 9장_불확실성 결론 / 고마움의 말 / 주 / 참고문헌 |
Brian Christian
브라이언 크리스천의 다른 상품
이한음의 다른 상품
구글 포토의 사진 인식 툴은 사진을 주제별로 자동 분류해 앨범마다 제목을 달았다. 어떤 앨범에는 “졸업”이란 제목이 붙었다. 앨신은 사진 속 동생이 쓴 학사모를 식별했음을 알고 깊은 인상을 받았다. 그런데 어떤 앨범에 붙은 제목을 보고 얼어붙었다. 앨범에는 친구랑 같이 찍은 사진이 있었다. 참고로 앨신은 아이티계 미국인어서 사진 속 둘은 모두 흑인이었다. “고릴라” 이게 앨범 제목이었다.
--- 「1부 1장 “표현”」 중에서 예를 들어, 가장 무모한 운전자를 남성이라 파악하는 예측 툴이 있다고 하자. 결과적으로 남성 운전자를 공격적으로 단속하면 그들의 무모함이 상당히 줄어들 수 있다. 하지만 여성 운전자는 자신이 단속당할 가능성이 더 적음을 깨닫고 무모하게 운전할 수도 있다. 결과적으로 도로는 평균적으로 덜 안전해진다. 하코트는 이렇게 썼다. “과거나 현재, 미래의 범죄에 더 높은 점수를 부여하는 것이 법 집행의 핵심 목적, 즉 범죄를 최소화한다는 목적에서는 완전히 역효과를 낳을 수도 있다.” --- 「1부 2장 “공정”」 중에서 무엇보다도 우리가 의사 결정을 ‘통계 모형에 떠맡길 때’ 직면할 수많은 문제가 무엇이든 간에, 인간의 판단만 고집하는 것 역시 바람직한 방안이 아니라고 시사하는 듯하다. 또한 인간의 예측 능력에 맞먹거나 더 나은 예측을 하는 데 굳이 복잡하고 정교한 모형까진 필요하지 않다는 점도 시사하는 듯했다. 그러나 여기에는 감질나는 질문 몇몇이 숨었다. “이 놀라운 결론은 대체 무엇을 설명하는 걸까?”, “인간의 판단은 정말로 나쁜 걸까?”, “몇 개의 변수를 쓰는 단순한 선형 모형이 정말 좋은 걸까?”, “우리가 예상하지 못한 어떤 지점에서, 인간의 지식이 그 단순한 선형 모형에 들어간 것은 아닐까?”, “아니면 인간이 엉뚱한 곳을 보던 게 아닐까?” --- 「1부 3장 “투명성”」 중에서 자전거를 타고 아무렇게나 돌아다니다 목적지에 다다를 가능성은 아주 낮았기에, 연구진은 자전거가 목적지에 조금이라도 더 가깝게 다가갈 때면 낮은 점수를 주기로 했다. 그러자 놀랍게도 시스템은 출발점에서 20~50미터의 반지름을 그리면서 빙빙 돌았다. 목적지에서 멀어질 때 문제를 빠뜨린 탓이었다. 시스템이 그 허점을 발견했고, 어지러웠겠지만 거침없이 허점을 계속 사용했다. --- 「2부 5장 “조형”」 중에서 “정확히 운전하는 사례만 보여 줘서는 안 된다. 실수했을 시 복구(즉, 차선 중앙으로 돌아오는)하는 사례도 보여 줘야 한다,” 그런데 그게 어떻게 가능할까? 가장 먼저 떠오르는 방법은 일부러 차를 어긋나게 몰았다가 돌아오는 것을 보여 주는 것이다. 물론 차선을 이탈하는 첫 장면을 보여 줘서는 안 된다. 차선 이탈까지 훈련하지 않도록 말이다! (…) 포멀로는 앨빈의 카메라에 찍힌 실제 사진을 뽑아서 도로가 살짝 기운 것처럼 조작했다. 그리고 차선 안쪽으로 살짝 운전대를 돌린 후 직진하라는 명령문과 함께 도로 사진을 훈련 데이터에 집어넣었다. 일종의 해킹이었지만 아무튼 I-79 도로에서는 먹혔다. --- 「3부 7장 “모방”」 중에서 “기계에다가 네 자신의 목표를 추구하라 하지 않고, 우리 목표를 추구하라고 하면 어떨까요? 이게 우리가 줄곧 했어야 할 일이 아닐까요?” --- 「3부 8장 “추론”」 중에서 “제가 개 사진을 한 무더기 주고서 품종 분류 툴을 만들라는 과제를 낸다 치죠. 그리고 이 사진을 툴로 분류하라 해요.” 그런데 사실 개가 아니라 고양이 사진이었다. “당신은 모형이 사진을 어떻게 분류하기를 바라나요? 당신이 어떤 사람인지는 모르지만, 툴이 고양이 사진을 개라고 분류하기를 원치 않을 거예요. 대신 전혀 보지 못한 사진이라고, 데이터 바깥에 있다라는 반응을 원할 겁니다. 제가 든 예가 극단적일 수도 있어요. 그런데 의사 결정에서는 이런 상황이 계속 나타나요. --- 「3부 9장 “불확실성”」 중에서 |
“AI 채용관이 당신을 불합격시킨다면 인정하겠는가?”
“AI가 인간의 결정을 바꾸는 것은 긍정적인가?” AI에 관한 모든 의문에 명쾌한 해답을 줄 최고의 책! 우리의 기술은 행동을 명시적으로 지정하는 소프트웨어에서 예시를 학습하는 머신 러닝으로 이동하고 있습니다. 그들이 올바른 예시를 올바르게 학습하고, 우리가 원하는 방식으로 행동할 것이라 어떻게 확신할 수 있을까요? - 저자가 언론사 인터뷰에서 남긴 말. AI와 인간의 관계가 어떻게 흘러갈지에 대한 궁금증이 최고조인 지금, 『인간적 AI를 위하여』는 그 궁금증에 꼭 필요한 지식과 해답을 제공한다. AI 시대를 맞아 우리가 진정으로 주목해야 할 점이 무엇인지, 실제로 어떤 행동을 해야 하는지를 과학과 철학까지의 관점을 정리해 제시하기 때문이다. 과학과 철학의 관점을 쉽게 전달하기 위해, 저자는 가장 원초적인 질문을 과학자와 철학자에게 던지는 방식으로 책을 진행한다. “AI 채용관이 당신을 불합격시킨다면 인정하겠는가?”, “AI가 인간의 결정을 바꾸는 것은 긍정적인가?” 우리가 가장 궁금해할 질문들 아닌가? 그 답이 이 책에 있다. 그 답을 내놓는 과정에 대한 생생한 사례도 담았다. ‘단어 임베딩’ 툴을 불러내 아무 단어나 입력하기 시작했어요. 나는 내 랩톱으로 했고, 애덤도 따라 했죠.” 그때 일이 벌어졌다. 그들은 이렇게 입력했다. “의사-남자+여자” 답은 이랬다. “간호사” 칼라이는 말했다. “우리는 충격을 받았고, 문제가 있음을 깨달았어요. 더 깊이 파고들자 문제가 더욱 심각하다는 것이 드러났어요.” 다시 시도해 봤다. “상점 주인-남자+여자” 돌아온 답은 이랬다. “가정주부”(“서문” 중에서) 『인간적 AI를 위하여』는 총 3부로 진행된다. 1부에서는 인간의 의도와 설계를 벗어난 AI의 사례를 들면서, AI 설계의 ‘복잡성’에 얽힌 어려움과 해결 시도를 소개한다. 2부에서는 AI의 학습을 이야기한다. 우리가 익히 아는 ChatGPT 등의 AI가 어떻게 학습하는지, 더욱 효과적인 학습을 위해 인간이 어떠한 시도를 하는지 소개한다. 그 시도는 진화, 인간의 동기까지 고려해야 하는 섬세한 작업이므로, 철학에 대한 논의와 이해가 필요하다. 3부에서는 AI가 낸 결과와 학습이 ‘공정하고 도덕적’이기 위해 노력하는 인간의 이야기를 담는다. 글과 말로 모두 열거할 수 없는, 인간의 온갖 규범과 가치를 AI에 심는 인간의 모든 도전을 담았다. “AI, 인간보다 똑똑하되 능가하지 않아야 한다!” 지금 우리에게 가장 필요한 AI 전망서 그렇다면 궁금할 수 있다. AI가 가져오는 미래는 유토피아인지, 디스토피아인지 말이다. 미리 공개하자면 “AI를 둘러싼 과학과 철학은 우리 생각보다 더 치열하게 고민하고, 섬세하게 작업한다”는 것이다. AI 개발과 실행에서 생기는 온갖 문제를 돌아보고 저자가 내린 결론이다. “AI가 인간보다 똑똑하되 능가하지 않기” 위한 도전은 진행 중이고, 멈추지만 않는다면 유토피아가 될 것이라는 이야기다. 그럼 우리가 할 일은 무엇일까? 더 높은 인간성과 도덕성을 효과적으로 AI에 학습시키는 능력을 어떻게 키울 것인지를 고민해야 한다. 인간의 가치를 학습하고 구현하는 ‘인간적인 AI’ 개발은 결국 우리에게 달렸기 때문이다. AI가 써 나갈 미래에서 인간의 자리가 어디인지, 어디까지 앉을 수 있는지에 대한 노력을 읽는다면, 인간의 미래는 밝다. 그 노력을 어떻게 해야 하는지가 바로 이 책에 있다. |
내게 영감을 준 책.” - 사티아 나델라 (마이크로소프트 CEO)
|
“지금 우리에게 필요한 책.” - 마이클 크리거 (인스타그램 공동 창업자)
|
“AI 문제에 대한 최고의 책.” - 제임스 배럿 (《파이널 인벤션》 저자)
|
“AI 공정성을 훌륭히 연구한 책.” - 캐시 오닐 (《대량살상 수학무기》 저자)
|