인공지능을 바라보는 시각은 실로 매우 다양하다. 인공지능이 가져올 장밋빛 유토피아를 그리는 시각도 있는 한편, 반대로 커다란 우려를 보이는 시각도 있다. 그런데 어느 쪽이건 극단적인 시각은 적지 않은 경우에 기술의 현주소에 대한 이해부족을 반영하는 것일 가능성이 높다. 이 책은 이런 간극을 채우기 위한 시도의 일환이다. 개인의 판단이건 국가정책적인 판단이건, 출발점은 인공지능 기술이 작동하는 메커니즘에 대한 이해 그리고 그러한 메커니즘이 일상과 사회에 어떤 형태로 영향을 미치게 되는지에 관해 객관적인 시각에서 바라보는 것이다.
---「들어가는 글 | 인공지능 시대, 다시 정의란 무엇인가」중에서
우리가 인터넷 포털에서 검색을 하고, 유튜브에서 동영상을 보고, 넷플릭스를 통해 영화를 보는 모든 과정에 인공지능 알고리즘이 중요한 역할을 한다. 알고리즘의 부작용을 강조하는 시각에서는, 추천 알고리즘으로 인해 이용자들이 편향적 사고에 빠지게 되면서 이른바 필터 버블(filter bubble)이나 확증편향(confirmation bias)에 빠지게 된다는 주장이 반복적으로 나타난다.
필터 버블은, 예를 들어 이용자에게 검색의 결과를 보여주는 과정에서 이용자의 관심사, 성향, 철학, 이념 등을 고려하여 최적의 결과를 찾아서 보여주는 것이, 개별 이용자를 다른 이용자들로부터 소외시키는 결과를 가져올 수 있다는 주장이다. 그리고 확증편향은 이용자들이 자신의 생각에 부합하는 정보를 더 빈번하게 또는 선택적으로 접하게 되면서 자신의 평소 선호나 성향을 더욱 강화하게 되는 경향에 관한 것이다.
---「1부 | 우리는 이미 인공지능 세계에 살고 있다」중에서
안면인식 기술은 이미지 매칭을 통해 동일인임을 파악하는 용도 이외의 다른 용도로 쓰일 수도 있다. 안면인식 기술을 응용하여 얼굴 모습만으로도 그 사람이 가진 특징의 일부를 파악하는 것이 가능할 수도 있음을 보여주는 연구가 종종 발표되고 있다. 그런 연구 중 사회적 관심과 논란을 불러일으킨 것 하나로 개인의 얼굴 이미지로부터 특징을 인식하여 해당 개인에게 동성애 경향이 있는지 파악하는 것이 가능하다는 연구가 있다. 이 연구는 데이팅 사이트에 올린 프로필 사진을 분석하여 진행한 것인데, 프로필 사진을 분석하는 것만으로 일정 수준의 정확성을 갖고 동성애 경향을 파악할 수 있다는 주장을 하여 논란을 일으켰다.
만약 이런 유형의 기술이 고도화되고 상용화된다면 우리 사회에 어떤 일이 벌어질 수 있을까? 예를 들어, 동성애 경향의 지원자가 채용되는 것을 꺼리는 기업이 있다고 하자. 이런 기업에서는 채용 절차를 진행하는 과정에서 오히려 이 기술을 적극 활용하여 지원자 중에서 동성애 경향의 지원자가 있는지 확인하고자 하는 노력을 기울일 수 있고, 그 경우에 동성애 차별 문제가 사회적 문제로 대두될 가능성이 있다. 또한 이 기술이 가진 오류의 가능성 때문에 추가적인 문제가 나타날 수 있다. 실제로 동성애자가 아닌 사람을 동성애자로 취급해서 또 다른 형태의 차별 논란이 나타날 수도 있는 것이다.
---「2부 | 인공지능, 어디까지 왔나」중에서
인공지능을 활용한 의사결정에 차별이나 편향이 나타날 수 있다면, 그 원인이 무엇인지 생각해볼 필요가 있다. 다음 도식은 데이터 수집에서 시작하여 인공지능 모델이 만들어지기까지의 전체 흐름을 몇 개의 단계로 나누어 간략하게 요약한 것으로, 각각의 단계에서 모두 차별이나 편향으로 인한 문제가 생겨날 가능성이 있음을 알려주는 것이다.
오늘날의 인공지능은 데이터의 존재가 핵심적인 관건이다. 적어도 개념적으로는 인공지능 모형을 개발하는 첫 단계는 실제 세상(real world)의 데이터에서 출발한다. 사회적 환경을 배경으로 하는 유형의 작업은 실제 세상의 데이터가 더욱 중요하다. 그런데 사회에는 편견과 차별, 불공정이 어느 정도는 있기 마련이다. 인공지능 개발의 기본 배경이 되는 인간 사회의 모습은 인공지능 기술 자체에 관한 문제라기보다는 우리 사회의 근본적인 문제라 하겠다.
---「3부 | 새로운 시대의 과제, 알고리즘 공정성과 차별금지」중에서
우리가 인공지능 세상에 대해 가지는 가장 궁극적인 질문은 인공지능을 얼마나 믿을 수 있겠느냐 하는 것이다. 결국 신뢰 문제로 귀결되는 것이다. 앞서 인공지능의 투명성이나 설명가능성에 대해 논의를 했지만, 이런 개념이 중요한 화두로 제시되는 커다란 이유는 아직 우리가 인공지능에 대해 충분한 신뢰를 형성하지 못하고 있다는 것이 배경에 있다. 만일 인공지능이 사회적 규범을 적절히 반영하여 ‘좋은’ 판단을 할 것이라는 신뢰가 충분히 형성된 상황이라면, 투명성이나 설명가능성에 대한 요구가 크게 줄어들 것이다.
---「4부 | 인공지능이 인간에게, 정의와 윤리를 묻다」중에서