인공지능이 더 많은 것을 선택하고, 더 많은 것을 스스로 결정하는 세상이 차츰 열리고 있다. 인공지능의 선택과 결정은 인간적이며 윤리적일 수 있을까? 있다면 얼마나 그러하며, 그렇지 않다면 어떻게 해야 할까? 유네스코의 「인공지능 윤리 권고」는 ‐ 많은 사람들의 ‘오해’와 달리 ‐ 그에 대한 정답을 담고 있지는 않다. 하지만 모두가 수긍할 만한 대답을 찾기 위해 우리가 어떤 원칙하에서 논의를 하고, 또 어떤 과정을 거쳐야 하는지에 대한 꼭 필요한 가이드라인을 담고 있다.
대답해 줘, 인공지능
2000년대 이후 여러 자동차 회사들이 인간의 운전 부담을 상당 부분 덜어주는 주행 보조 기술을 상용화했고, 테슬라나 구글 등의 기업은 여기서 더 나아가 완전한, 혹은 거의 완전한 자율주행차의 개발에 나서고 있다. 인간이 하는 운전의 보조자 역할에서 벗어나 스스로 판단을 내리고 운전을 하는 자율주행차의 개발이 진전되면서 다시 소환되기 시작한 문제는 바로 자율주행차 버전의 ‘트롤리 딜레마’다. 주행 중 발생할 수 있는 긴급한 상황에서 자율주행차는 차량 탑승자와 다른 차량의 운전자, 그리고 보행자의 안전 사이에서 어떤 것에 더 가치를 둬야 할까? 자율주행차의 인공지능을 프로그래밍할 사람은 알고리즘이 어떤 것에 더 가중치를 두도록 만들어야 할까? 그 결정은 얼마나 윤리적이며, 나아가 누구의 책임이어야 할까?
사람이 모는 기존 자동차를 만드는 회사는 이런 고민 없이 그저 탑승자가 안전한 차를 만들기만 하면 됐다. 탑승자와 다른 차뿐 아니라 보행자 모두의 안전을 어떻게 지킬지는 오롯이 차를 모는 이의 선택과 책임일 뿐이었다. 하지만 자율주행차의 운전대를 잡을 인공지능이 어떤 선택을 하는지는 자동차 제작 단계에서 ‘미리’ 결정돼야만 한다. 인공지능이란 단어에서 우리가 흔히 떠올리는 이미지와 달리 아직까지는 –그리고 앞으로도 매우 오랫동안, 어쩌면 영원히–인공지능이 스스로 생각을 할 수가 없기 때문이다. 현재 연구되고 있거나 산업계나 시장에서 적용되고 있는 인공지능은 모두 제한된 상황에서 미리 주어진(프로그래밍된) 역할에 따라 선택을 내리거나 이를 학습할 수 있는 인공지능, 즉 약인공지능(weak AI)이다. 스스로 생각하고 새로운 분야를 학습하며 인간과 소통할 수 있는 인공지능, 즉 우리가 영화나 소설에서 보고 상상해 온 그러한 능력을 가진 강인공지능(strong AI) 혹은 일반지능(general intelligence)의 출현은 아직까지 그것이 과연 가능할지에 대한 공통된 전망조차 없다는 것이 전문가들의 의견이다.
따라서 인공지능을 개발하는 회사들은 자사의 인공지능이 동작 중에 겪을 수 있는 가능한 모든 상황에 대한 선택을, 혹은 선택의 근거가 될 알고리즘의 동작 방식을 미리 결정해 두어야 한다. 실제로 자율주행차 개발사들은 트롤리 딜레마와 같은 상황에 대해 제한적이거나 아주 기초적인 수준에서 나름의 해답을 테스트하고 있기도 하다. 2014년 알파뱃(구글의 모회사)의 혁신 연구 부서인 구글엑스의 설립자 세바스천 스룬(Sebastian Thrun)은 『블룸버그』와의 인터뷰에서 자사의 프로토타입 자율주행차가 사고 시 상대적으로 더 작은 물체를 치게 될 것이라고 언급한 적이 있다. 2016년 구글 자율주행차 프로젝트의 책임자인 크리스 엄슨(Chris Urmson)은 자율주행차가 “자전거나 보행자 등 길 위에서 보호받지 못하는 이용자들과 충돌하는 것을 최대한 피할 것”이라 말했고, 같은 해 파리 모터쇼에서 메르세데스-벤츠의 한 임원은 자동차전문지 『카앤드라이버』를 통해 자사의 자율주행차가 사고시 (보행자보다는) 탑승자의 안전을 우선시할 것이라는 언급을 했다가 거센 역풍을 맞기도 했다. 이처럼 윤리적인 선택의 딜레마에 관한 말 한마디, 단어 한 개의 선택이 얼마나 주목을 받고 큰 파장을 일으키는지를 아는 회사들은 이와 관련된 알고리즘 개발 상황에 대한 언급 자체를 꺼리고 있다. 같은 맥락에서 메르세데스-벤츠 사의 해당 구설을 언급한 외국의 한 자동차 커뮤니티에는 “(개발사들은) 절대, 절대, 트롤리 딜레마에 대한 대답을 하지 말아야 한다. 그냥 자율주행차가 술에 취한 당신을 집에 잘 데려다줄 것이라고만 말하면 된다”는 우스갯소리가 올라오기도 했다.
정답이 아닌 과정의 문제
윤리적 선택에 대한 진행 상황의 공개 여부와는 상관없이, 인공지능 개발 회사들은 인공지능이 가장 적절한 답을 내놓도록 만들기 위해 끊임없이 나름의 논리와 연구를 해 나갈 것이다. 그렇다면 인간의 머리로도 쉽게 답을 내놓을 수 없는 문제에 대해 기업들이 각기 알아서 정답을 내놓으라고 하는 것은 과연 얼마나 생산적일지, 그 답은 또 얼마나 공정하며 인간과 인간의 가치를 존중할 수 있을지에 대한 의문이 남는다. 아마도 회사들이 내놓은 답은 저마다 다를 것이다. 심한 경우 서로 상충하는 답을 내놓는 회사도 있을 것이다. 설령 업계에서 그럴듯한 통일된 의견을 제시하거나, 정부에서 구체적인 안을 만든다 해도 모든 시민들이 그것에 만족할 가능성은 그리 크지 않다. 사실 트롤리 딜레마가 공리주의(최대한 많은 사람들이 행복할 수 있는 결과를 좇는 것)와 도덕적 의무론(결과와 상관없이 언제나 지켜야 할 옳은 선택이 있다고 믿는 것) 사이에서 제기하는 질문에 대해 모든 시민들이 만족할 수 있는 답이란 애초에 없다. 그러니 우리 자신에게도 어려운 문제에 대한 명확한 답을 인공지능이 내놓기를 요구하는 것보다 더 중요한 것은 따로 있다. 최대한 많은 사람들이 수긍할 수 있고 우리 사회의 핵심 가치를 최대한 존중할 수 있는 타협점을 찾아 원칙을 만들고, 그것이 개발에서부터 활용에 이르기까지 인공지능의 전 단계에 걸쳐 적용되도록 뜻을 모으는 일이다. 제한적인 상황에서만 실력을 발휘할 수 있는 인공지능이 공정하고 인간적인 선택을 해 주기를 기대하는 것이 아니라, 충분히 공정하고 인간적인 시스템의 틀 안에서 인공지능이 실력을 발휘하도록 하는 방법을 먼저 고민해야 한다는 이야기다.
유네스코 「인공지능 윤리 권고」 초안 작성에 참여한 한양대 이상욱 교수(철학)는 유네스코한국위원회를 통해 펴낸 단행본 『인공지능 윤리, 함께 생각하기』에서 인공지능 윤리란 “인공지능이 어떤 좋은 점이 있고 어떤 나쁜 점이 있으니 나쁜 점을 방지하거나 고치기 위해 이런 조치를 해야 한다고 선언하는 것이 아니”라고 했다. 이 교수는 인공지능 윤리의 핵심은 “우리 사회에서 핵심적으로 존중되는 가치에는 어떤 것이 있으며 그 가치를 최대한 균형 있게 존중하는 방식으로 인공지능 개발과 활용을 하기 위해 어떤 점에 주의하고 어떤 제도적 장치를 마련해야 하는지를 통합적으로 탐색하려는 노력”이라고 이야기한다. 즉, 유네스코의 「인공지능 윤리 권고」를 비롯해 지금 여러 층위에서 이야기하고 있는 것은 도덕적이고 윤리적이며 인간보다 더 인간다운 인공지능의 ‘모델’을 제시하는 것이 아니라, “우리가 추구하는 다양한 가치를 인공지능의 생산적 활용과 어떻게 조화시킬 것인지를 민주적으로 모색하는 실천 과정”을 이야기하는 것임을 알고 그 과정에 모두가 관심을 기울이고 적극적으로 참여해야 한다는 뜻이다.
공정한 세상의 청사진
우리가 이야기해야 하는 인공지능 윤리가 인공지능의 ‘결정’이 아니라 사회적 가치에 대한 우리 모두의 논의와 타협에 관한 문제임을 받아들인다면, 인공지능의 시대를 앞두고 우리가 생각해 보아야 할 윤리적 문제의 범위는 더욱 넓고 깊어진다. 이제 문제는 그저 자율주행차가 운전자와 보행자 중 누구를 지킬 것인가에 관한 것이 아니라, 자율주행차가 도시를 누비고 다니는 세상은 어떻게 해야 모두에게 이로울 수 있을지에 관한 것이 된다. 인공지능과 딥러닝 분야의 세계적 권위자인 스탠퍼드대 로스쿨의 랜스 엘리엇(Lance Eliot) 박사는 지난해 4월 『포브스』에 기고한 글에서 그 고민의 예를 이렇게 들고 있다.
“도시의 모든 택시가 인공지능에 의지해 자율주행을 하고 있다. 처음에 모든 택시들은 도시 전역에 비교적 균일하게 분포하며 승객을 실어나른다. 승객이 택시를 기다리는 시간도 도시 전역에서 크게 차이가 나지 않을 것이다. 하지만 시간이 지날수록 인공지능 택시들은 택시 호출 빈도가 더 높은 –대체로 소득 수준이 높은– 특정 지역으로 몰리기 시작한다. 빈곤한 지역에서 택시를 잡으려는 승객과 대기중인 택시 간의 평균 거리는 부유한 지역에서의 승객-택시 간 평균 거리보다 점점 커질 것이고, 가까운 곳에 있는 승객을 우선시하는 인공지능은 더욱 많은 택시를 부유한 지역에 몰아주게 될 것이다.”
이 과정에서 인공지능이 윤리적으로 잘못한 것은 없다. 마찬가지로 (의도적으로 빈곤 지역을 기피하는 프로그램을 심은 것이 아닌 한) 프로그래머가 잘못한 것도 없다. ‘중립적이고 공정한’ 인공지능은 그저 머신러닝과 딥러닝을 통해 택시로서의 본분을 더 잘 할 수 있도록 스스로 학습하고 행동했을 뿐이다.
이러한 예는 인공지능의 시대에도 인간의 존엄성과 근본 가치를 지키기 위해 우리가 요구해야 할 것은 단순히인공지능이 내놓는 결과물에 공정을 요구하는 것이 아니라, 인공지능이 활용되는 시스템 전반에 그러한 가치를 지킬 수 있는 환경을 만들어 두는 것이라는 사실을 말해준다. 몇 년 전 한국에서 큰 논란을 불러일으켰던 인공지능 챗봇 ‘이루다’의 예에서처럼 특별히 불순한 의도 없이 만들어진 인공지능이 의도와 다르게 작동하며 문제를 일으키는 사례를 우리는 이미 적지 않게 목격하고 있다. 차별과 혐오의 언어를 발설하는 이루다에게 이제와서 ‘윤리’를 학습시킬 수는 없다. 대신 이루다의 개발 과정에 더 다양하고 공정한 시각이 반영되고, 이루다가 그럴듯한 대화를 위해 참조하는 방대한 데이터베이스가 보다 사려깊고 공정하게 수집되도록 요청하고 이를 감독할 수는 있다. 충분한 논의와 사회적 합의를 거쳐 그러한 과정이 적절한 감독하에 수행되고, 그 위에서 작동하는 인공지능이 해당 결정을 내린 이유가 투명하게 설명될 수 있고, 무엇보다 그 결과에 대한 책임이 인공지능이 아닌 인간에게 있음을 명확히 할 때 우리는 인공지능의 선택에 대한 의심 어린 시선을 거둬들일 수 있을 것이다.
함께 고민하고, 함께 만들어야 할 때
다시 ‘트롤리 딜레마’ 이야기로 돌아가서, 유네스코와 파트너십을 맺고 디지털 기술의 사회적 충격을 연구하는 독립단체인 넷익스플로(Netexplo)가 2018년에 발간한 단행본 『Human Decisions: Thoughts on AI』(인간의 결정: AI에 관한 생각)에는 “(이 문제의) 가장 윤리적인 해결책은 사회에서 이러한 유형의 사고가 발생하는 것을 가능한 한 최소화하는 방법을 강구하는 것”이라는 지적이 실려 있다. 그 방법이란 차량의 결함과 관련해 이미 만들어진 표준이 있더라도 이를 더욱 개선할 방법을 찾고, 사고 상황에서도 희생을 최소화할 수 있도록 더 적절한(안전한) 주행 속도에 대해 다시 논의해 보는 것 등이다. 해당 글을 쓴 상하이 중국-유럽 기술대학의 몬젠 첸(Monzen Tzen) 교수와 주캐나다프랑스대사관의 자비에 모케(Xavier Moquet) 교육담당관은 여기에 더해 앞으로 인간의 가치와 모델, 삶의 방식 등에 대해 인공지능이 제기할 질문과 정면으로 맞닥뜨려야 할 젊은 세대가 새로운 규칙과 새로운 코드, 새로운 습관, 새로운 삶의 방식과 사회적 모델을 발명할 수 있도록 이들에게 “더욱 효과적이며 바깥 세상을 향해 열려있고 그 세상과 긴밀하게 연결되어 있는 교육을 제공해야 한다”고도 강조했다.
인공지능의 윤리적 선택이 모두를 만족시킬 방법이란 앞으로도 나오지 않을 것이다. 이는 세상 모든 사람을 만족시킬 정치인을 기다리는 것만큼이나 현실성이 없는 이야기다. 후자의 경우를 잘 알고 있는 인류는 그래서 다양한 견제와 안전장치를 갖춘 민주적 시스템과 그것이 제대로 돌아갈 환경을 만들어 우리의 권리와 존엄성을 지키고 있다. 마찬가지로 지금 열리고 있는 인공지능의 세상에서도 우리는 인공지능의 완벽한 선택보다는 그 선택에 이르는 과정에 인간과 인간 사회의 기본 가치를 잘 담아내도록 노력해야 한다. 「인공지능 윤리 권고」의 채택을 축하하며 오드레 아줄레 유네스코 사무총장이 한 말처럼, “눈을 크게 뜨고 인간의 가치를 희생하지 않으면서 새로운 시대를 맞이하기” 위한 길은 알고리즘이 아니라 우리 자신의 선택에 달려 있다.
김보람 『유네스코뉴스』 편집장