나보다 나를 더 잘 아는 알고리즘,
너를 알고 싶어!
오늘도 접속한 유튜브에 본 적 없는 새로운 동영상이 뜬다. 무심코 재생하며 댓글 창을 들여다보니, “알 수 없는 알고리즘이 나를 또 여기로…”라는 댓글들이 심심찮게 보인다. ‘알고리즘의 시대’라 일컬어도 지나치지 않을 만큼 오늘날 알고리즘은 우리 일상 곳곳에 파고들어 작동한다. 구글에서 필요한 정보를 검색할 때도, 지도 앱으로 최적 경로를 찾을 때도, 넷플릭스 같은 OTT 플랫폼에서 볼 만한 콘텐츠를 살필 때도, 그 모든 일에 알고리즘이 개입한다.
놀라운 사실은 알고리즘이 누구보다 ‘나’를 잘 안다는 것이다. 2015년 영국 케임브리지대학교와 미국 스탠퍼드대학교 공동 연구팀의 연구 결과에 따르면, ‘좋아요’를 분석하는 알고리즘은 이용자의 성격을 그 친구나 가족보다 잘 알아맞혔다. 영국의 한 컨설팅 업체가 알고리즘으로 페이스북 이용자들의 정치 성향을 분석하고 그 정보를 미국 대선에 이용해 큰 논란이 되었던 사건은 이미 잘 알려진 바 있다. 이러한 알고리즘의 강점을 놓칠 리 없는 기업들은 더욱 강력한 알고리즘을 설계하며 이용자들을 플랫폼에 모여들게 만들고 있다.
나보다 나를 더 정확히 분석하며 중독에 가까울 정도로 몰입하게 하는 알고리즘의 정체는 도대체 뭘까? 『알고 있니? 알고리즘』은 모두가 존재를 알지만 그 작동 방식은 흐릿하게 짐작할 뿐인 ‘알고리즘(Algorithm)’에 관해 청소년 눈높이에 맞춰 명쾌하게 풀어낸 책이다. 십 대의 일상과 긴밀히 맞닿아 있는 사례와 시각적 이해를 돕는 인포그래픽과 함께, 알고리즘이란 정확히 무엇이고, 어떤 원리로 작동하며, 그 속에 어떤 함정이 숨어 있는지, 그 함정을 피해 초연결 디지털 시대를 무사히 통과하려면 우리는 어떤 태도로 알고리즘을 대하고 사용해야 하는지를 차례차례 살펴본다.
양치질부터 시작해 머신 러닝으로 이어진
알고리즘이 세상을 뒤흔들기까지
알고리즘은 사실 정보 통신 분야나 컴퓨터 사이언스에서만 사용하는 말이 아니다. 코딩 교육 프로그램 〈나랑 놀자! 소프트웨어〉에서 양치질 순서를 들어 쉽게 설명하듯, 알고리즘은 어떤 문제를 해결하기 위한 ‘절차’의 표현이다. 그러한 알고리즘이 컴퓨터 사이언스와 함께 발전하면서 모든 것의 ‘자동화’를 일으키기 시작한 것이다.
이 책은 온라인 플랫폼에서 흔히 쓰이는 추천 알고리즘의 원리와 그 종류를 짚어 보는 등 알고리즘이 어떻게 작동하는지 흥미로운 예시를 들어 구체적으로 살펴본다. 그리고 컴퓨터 알고리즘이 1940년대부터 지금에 이르기까지 어떻게 발전하며 세상을 바꿔 왔는지 그 변화를 인공 지능의 역사와 함께 들여다본다. 컴퓨터 역사와 함께 시작된 인공 지능 연구가 머신 러닝 알고리즘과 빅데이터의 만남으로 놀라운 성과를 이루어 내는 과정을 되짚어 본다. 이 과정을 찬찬히 따라가다 보면, 알고리즘과 연관된 다양한 핵심 개념을 이해할 뿐만 아니라 인공 지능 알고리즘이 현재 우리 삶에 얼마만큼의 영향을 미치는지 그 힘과 의미를 실감할 수 있다.
그 선택을 알고리즘에 맡겨도 될까?
알고리즘이 만들어 낸 편견과 함정
이른바 ‘좋아요’, ‘구독’, ‘알림 설정’ 그리고 개인 정보 제공이나 접근에 관한 ‘동의’, ‘허용’을 누를 때마다 내 정보가 알고리즘에 데이터로 제공된다는 사실은 누구나 알고 있다. 그렇게 수집한 데이터로 알고리즘이 내가 좋아할 만한 것을 추천하면, 우리는 오직 ‘나’만을 위한 맞춤 정보를 편리하게 이용한다. 하지만 이처럼 효율적인 알고리즘 시스템 뒤에는 우리를 집요하게 분석하고 ‘돈’을 벌려는 기업의 욕망이 숨겨져 있다.
이 책은 이러한 알고리즘의 이면뿐 아니라 우리가 알고리즘에 길들기 시작하는 순간 빠지기 쉬운 편견의 함정에 관해서도 짚어 낸다. 선택에 따르는 감정 노동의 부담을 덜어 주기에 거부하기 어려운 인공 지능 추천 알고리즘은 완벽하게 개인화된 추천을 한다. 내 ‘취향’과 ‘성향’에 맞추다 보니 내가 좋아할 만한 정보만 띄우고 나와 생각이 비슷한 사람들하고만 연결하는 것이다. 이렇게 필터링된 정보에 계속해서 갇히다 보면, 균형 잡힌 정보를 접하기 어려워지고 나와 다른 성향과 신념을 점차 배척하게 된다.
큰 기대 속에 개발되었다가 물의를 일으켜 폐기된 아마존의 인공 지능 채용 시스템이나 우리나라의 인공 지능 챗봇 ‘이루다’, 코로나19 사태로 기존 시험 대신 알고리즘에 의한 점수 산출 방식으로 대입을 진행했다가 문제가 생긴 영국 등의 사례는 알고리즘이 현실 세계의 불평등과 차별, 혐오를 반영한다는 사실을 바로 비춰 보인다. 데이터가 편향되면 결과물도 편향될 수밖에 없다고 경고하는 이 이야기를 통해 우리는 알고리즘이 편견에 빠지지 않도록 기술적으로나 제도적·윤리적으로 이를 해결해 나갈 노력이 필요하다는 사실을 깨닫게 된다.
편리함과 익숙함에서 벗어나
알고리즘의 시대를 무사히 통과하려면
그렇다고 해서 인공 지능 알고리즘에 막연한 두려움을 가질 필요는 없다고 이 책은 말한다. 단순히 부작용을 걱정하기보다 어떤 목적으로 알고리즘을 개발하고 사용하는지를 먼저 생각해야 한다는 것이다. 우리가 이미 목적에 맞춰 알고리즘을 사용하고 어떤 알고리즘을 쓰는지 제대로 밝히려 노력해 나가고 있다는 점도 고무적이다. 자신이 개발한 안면 인식 프로그램이 편향된 알고리즘으로 작동한다는 사실을 깨닫고는, 공정한 안면 인식 알고리즘 학습을 위한 새로운 데이터 세트를 만드는 일에 뛰어든 조이 부올람위니의 이야기에서도 인간과 알고리즘이 행복하게 공존할 수 있다는 희망을 엿볼 수 있다.
이 책의 마지막 장을 덮고 나서 우리는 또다시 알고리즘이 움직이는 세계로 들어갈 것이다. 하지만 그때는 알고리즘을 대하는 태도가 달라지지 않을까? 언제나 그랬듯 ‘알고리즘이 알아서 객관적이고 공정한 결과를 알려 주고 추천해 주겠지.’ 하고 마냥 믿으며 ‘좋아요’를 쫓기보다, 그 익숙함에서 벗어나 질문을 던져 보자. 그래야만 알고리즘과 제대로 마주할 수 있다. 또한 내가 진짜로 원하는 게 무엇이고 그걸 어떤 방식으로 얻고 싶은지 계속해서 고민하고 탐색해 나가 보자. 그러한 태도로 알고리즘을 대할 때 우리는 삶의 주도권을 빼앗기지 않고 지금보다 더 안전하고 슬기로운 방식으로 알고리즘과 함께 나아갈 수 있을 것이다.