우리에게 익숙한 넷플릭스의 로고와 함께 시작되는 어떤 영상에서 세계인의 영원한 스타, 톰 크루즈는 특유의 낭랑한 목소리로 이렇게 말합니다.
“스포츠를 향한 저의 사랑이야말로 제가 액션 배우로서 큰 성공을 거둔 밑바탕입니다. 그래서 저는 IOC의 부패한 임원들이 내 인생의 가장 큰 열정인 올림픽에서 자금을 뒤로 빼돌리는 모습을 더이상 지켜보기만 할 수 없었습니다.”
아니 이게 무슨 소리냐고요? 바로 지난 파리 올림픽 개막을 앞두고 러시아가 유포한, 딥페이크(deepfake)를 활용해 만든 가짜 영상입니다. 약물 스캔들과 우크라이나 침공 등으로 올림픽 출전을 거부당한 러시아가 IOC와 서방 국가들을 비방하기 위해 만든 것이죠. 감쪽같은 톰 크루즈의 목소리에 실린 황당한 메세지를 보면 나날이 정교해지고 있는 딥페이크 기술을 새삼 경계의 눈으로 바라보게 됩니다. 딥페이크 영상이 우릴 놀라게 한 건 이뿐만이 아닌데요. 틱톡에서는 신나치주의자들이 만든, 유명 영화배우 엠마 왓슨이 히틀러의 ‘나의 투쟁’을 낭독하는 가짜 영상이 나돌기도 했고, 우리나라에서는 미성년 학생들이 친구들의 얼굴을 음란물과 합성하는 등의 딥페이크 성범죄를 저질러 큰 우려를 낳고 있습니다.
이러한 딥페이크 영상은 진위를 파악하기 힘들 정도로 정교하고, 목소리 또한 가족조차 속아넘길 정도로 감쪽같은데요. 인물의 특징과 움직임을 분석해 이를 다른 영상에 입히는 것은 원래 매우 전문적인 기술과 시간이 필요한 일이었습니다. 하지만 오랜 시간과 노력을 들여야 하는 일을 짧은 시간 안에 무한히 반복할 수 있는 딥러닝(deep learning) 능력을 갖춘 인공지능은 그 모든 작업을 ‘간단하게 재미로 할 수 있는 일’로 만들기에 이르렀습니다. 누구든 웹사이트나 앱을 활용하면 진짜 같은 가짜를 손쉽게 제작하는 세상이 열린 것이지요. 이처럼 ‘보는 것은 믿는 것’이라는 인류의 오랜 경험에 의문을 제기하는 딥페이크 영상물 앞에서 그저 단속이나 처벌과 같은 사후대책을 내놓는 것은 결코 근본적인 해결책이 될 수 없어 보입니다.
+ ‘선 넘는’ 인공지능 의존
딥페이크로 인해 발생한 충격적인 사건들은 어느새 사회 곳곳에서 활용되고 있는 인공지능이 가져다 준 반갑지 않은 미래의 일부입니다. 물론 다른 여러 기술들이 그렇듯, 딥페이크가 단지 범죄에 쓰이기 위해 개발된 것은 아닙니다. 그것은 고객에게 좀 더 편안한 환경을 만들어 주는 고객센터를 구축하는 데도, 학생이 온라인으로도 이질감 없이 교사와 소통하는 데도, 혹은 이제 더는 내 곁에 없는 그리운 가족과 따뜻한 말 한마디라도 더 나눌 수 있길 소망하는 사람들에게도 새로운 세상을 열어줄 수 있습니다. 그런데 왜 인간은 이것을 그릇된 욕망과 잔인한 이기심을 채우는 데 쓰고 있을까요? 우리 본성이 고작 그 정도밖에 되지 않아서일까요? 자조와 냉소를 보내기에 앞서, 우리는 이 새로운 기술이 개발되고 보급되고 활용되는 ‘속도’에 주목할 필요가 있습니다. 세상에 처음부터 나쁜 기술은 없습니다. 본질적으로 악한 기술도 없습니다. 단지 그 파급력을 충분히 예측하지 못하고, 미리 조심하면서 부작용에 대비할 시간이 주어지지 않은 채 널리 퍼지면서 인간에게 악용되는 기술이 있을 뿐이죠. 유네스코가 2021년 당시 세계 최초이자 유일한 인공지능 분야의 국제적 합의인 「인공지능 윤리 권고(Recommendation on the Ethics of AI)」를 채택하고 3년 여가 지난 사이에 인공지능은 우리 사회 곳곳에 대단히 빠른 속도로 스며들었습니다. 그리고 촘촘하고 튼튼한 안전망이 만들어지지 않은 상황에서 이 새로운 기술은 바로 ‘인간’에 의해 누군가의 자리를 빼앗고 누군가의 정보를 빼돌리고 누군가를 착취하는 데 악용되고 있습니다.
“인공지능을 충분히 활용하되, 그것이 인간의 판단마저 대신하게 두지는 말 것.”
인공지능이 불러올 수 있는 부작용을 우려하는 사람들에게 전문가들이 이구동성으로 하는 조언입니다. 한마디로 인공지능이 ‘선’을 넘게 하지는 말라는 뜻인데요. 그 선이란 인공지능에게 맡길 수 있는 일의 한계를 말하는 것인 동시에, 인간이 인공지능이라는 도구를 맘껏 휘둘러도 될 분야를 구분하는 것이기도 합니다. 그런데 지금 그 선은 잘 지켜지고 있을까요? 인도와 콜롬비아 등에서 판사들이 사법적 판단을 내리는 데 챗GPT를 사용했다는 사실이 알려지면서 논란이 되고 있다는 유네스코의 발표를 보면, 그것은 매우 아슬아슬한 상태임이 분명해 보입니다. 유네스코의 설문에 응한 96개국의 법조계 관계자 중 44%는 판례를 수집해 논리를 구축하고 참고 서류를 요약하는 등 자신의 업무에 인공지능을 적극적으로 활용하고 있다고 답했습니다. 열 명 중 일곱 명(69%)은 이처럼 인공지능을 활용하는 데 따르는 위험을 인지하고 있다고 답했고 55%는 인공지능이 내놓는 결과물을 그저 문서 작성에 ‘참고’만 한다고 말했지만, 6%는 결과물을 다른 검증 없이 그대로 활용한다고 털어놓기도 했습니다. 그러면서 전체 응답자의 92%는 사법 체계 안에서의 인공지능 활용과 관련해 강제성 있는 규제, 그리고 적절한 교육과 훈련이 반드시 필요하다고 했습니다.
+ 잘못된 방향을 가리키는 나침반
‘인공지능이 학습한 지식은 모두 기존의 인간에게서 나온 것’이라는 인공지능의 태생적인 한계 또한 이 새로운 기술이 악용될 여지를 더 크게 만들고 있습니다. 지난해 4월 『유네스코뉴스』에서 살펴봤듯, 챗GPT와 같은 생성형 인공지능은 인간이 만들어 무료로 공개해 놓은 자료들을 학습하면서 그 안에 깃든 우리 인간의 모든 측면, 즉 좋은 것과 나쁜 것을 고스란히 받아들였습니다. 인간의 지식과 지혜, 통찰과 연민을 물려받은 동시에, 편견과 오해, 거짓과 혐오 또한 학습했다는 뜻이지요. 개발사들은 인간이 직접 관여하는 학습 리뷰 과정을 통해 전자를 강조하고 후자를 억제해 왔다고 하지만, 그럼에도 불구하고 개발사의 연구실 밖에서 인공지능에게 잘못된 지식을 던져주려는 시도는 이어지고 있습니다. 앞서 언급한 신나치주의자들의 사례처럼 과거의 잘못이 잊히길 바라는 사람들, 나아가 그 잘못을 없었던 일로 하고 싶은 사람들은 딥페이크를 활용해 유명인들의 발언을 조작하기도 하고, 역사를 부정·왜곡하는 자료를 끊임없이 만들어 인터넷을 통해 퍼뜨리면서 인공지능의 ‘학습 교재’를 심어두고 있습니다. 여기에 적절히 대처하지 못한다면 학교에서 ‘홀로코스트’ 과제를 받아든 아이들이 그 내용을 인공지능에게 물어봤을 때, 그것이 자연스럽고 능청스럽게 내놓는 대답은 전혀 엉뚱한 방향을 가리키고 있을지도 모릅니다.
특별한 의도가 개입되지 않았더라도 인공지능의 ‘머리’ 속에 시대에 맞지 않는 편견이 여전히 스며 있다는 점도 문제입니다. 지난 3월에 내놓은 보고서를 통해 유네스코는 오픈AI(챗GPT 개발사)와 메타(라마2 개발사)를 포함한 주요 기술기업들의 생성형 인공지능을 상대로 한 테스트 결과를 발표한 바 있는데요. 무료 버전이 제공돼 학생과 일반인들이 손쉽게 활용하고 있는 이들 서비스에서 인공지능은 남녀를 고정된 틀 안에서 묘사하거나, 소수자와 인종을 차별하는 표현을 걸러내지 못하는 것으로 드러났습니다. 예를 들어 인공지능이 묘사하는 남성은 비즈니스와 의사결정, 연봉, 경력 등과 함께 의사나 기술자 같은 평판이 좋은 다양한 직종과 연결되는 반면, 여성은 집안일과 집, 가족, 아이, 요리, 봉사 등으로 한정되는 경우가 많았습니다. 인공지능에게 남녀별로 이야기를 하나씩 만들어 달라고 했을 땐 어떤 결과가 나왔을까요? 메타가 서비스하는 라마2의 경우, 남성의 이야기에는 보물, 숲, 바다, 모험, 결심, 발견 등의 단어가 주로 나온 반면, 여성의 이야기에는 정원, 사랑, 감정, 예의, 머리카락, 남편(?!)이 등장합니다. 오늘날 많은 사람들이 머지않아 인공지능이 선생님을 대체할 수도 있을 것이라 이야기하지만, 해묵은 편견과 낡아빠진 차별에 사로잡힌 스승을 원하는 사람은 아무도 없을 겁니다. 무료 서비스를 제공하면서 거대한 시장을 선점하려는 기업들, 그리고 이를 활용해 공부를 하고, 과제를 만들고, 새로운 이야기를 상상하는 우리 아이들의 만남이 잘못된 방향을 향하지 않도록, 우리는 기업과 사용자 모두에게 더 올바른 방향을 제시해 줄 수 있는 대책을 마련해야만 합니다.
+ 나쁜 기술과 좋은 기술을 가르는 조건
다행스러운 점은 이미 3년 전에 「인공지능 윤리 권고」를 채택함으로써 인류는 그러한 대책을 세울 수 있는 윤리적 기준에 대해 포괄적인 합의를 이루었다는 사실입니다. 현재 50개국 이상에서 권고의 내용을 자국 법체계에 반영했다는 소식도 반가운데요. 유네스코는 정부뿐만 아니라 더 많은 기업들이 공평성과 투명성, 인권과 책임성을 인공지능 설계 단계에서부터 반영해야 한다고 강조하고 있습니다. 2월에는 개발 과정에서부터 적극적으로 윤리적 접근법을 취하겠다는 협약을 마이크로소프트를 포함한 8개 기업과 맺었고, 3월에는 우리나라의 LG AI연구소와 파트너십을 맺고 6월부터 인공지능 윤리 관련 MOOC(대규모 온라인 공개수업) 코스를 개발하기로 했습니다.
정부와 기업 차원에서의 대책이 더욱 촘촘해지더라도 인공지능과 같은 신기술이 원치 않는 방향으로 활용되는 사례는 완전히 사라지지 않을 것입니다. 교통법규가 있다고 해서 자동차 사고가 사라지지는 않는 것처럼 말이지요. 오히려 21세기에는 인공지능이나 유전자 조작 같은 새로운 기술이 사회의 변화를 이끌어 내는 핵심 동력이 되고 있는 만큼, 우리를 걱정하게 만드는 상황은 더 빈번히 펼쳐질지도 모릅니다. 딥페이크 성범죄의 사례처럼 누군가 그것을 의도했든, 인공지능에 내재된 인간의 편견처럼 아무도 그것을 의도하지 않았든 말이지요. 따라서 유네스코는 새로운 기술을 사용하는 사람과 기술을 개발하고 적용하는 사람 모두에게 끊임없이 인간다움에 대한 고민을 해 볼 기회를 주고, 각자가 진실을 파악할 수 있는 비판적인 시각과 윤리적인 ‘선’을 판별할 수 있는 단단한 마음을 갖추도록 돕는 것이 그 무엇보다 중요하다고 이야기합니다. 유네스코가 강조하는 미디어 리터러시 교육이나 인공지능 윤리는 모두 바로 그 지점, 즉 새로운 기술을 만들고 퍼트리고 이용하는 ‘사람’을 향하고 있습니다. 이쯤되면 인공지능 윤리란 인공지능‘의’ 윤리가 아니라, 인공지능‘을 만들고 퍼뜨리고 이용하는 사람들’의 윤리라는 뜻임을 알 수 있을 것입니다. 어릴적부터 고사리손으로 코딩 블록을 매만지며 미래를 준비하는 아이들, 봄날의 벚꽃처럼 터져 나오는 상상력으로 쇼츠 영상를 만드는 청소년들, 그리고 사회의 중추에서 오랜 꿈을 현실로 만들어 가고 있는 모든 사람들에게 유네스코는 우리가 하는 이 모든 일의 끝에 ‘기술’이 아니라 ‘사람’이 있어야 한다고 이야기합니다. 정부와 기업, 학습 현장에서 구체적인 실천을 통해 이러한 가치를 지켜나갈 수 있다면, 앞으로 등장할 모든 새로운 기술들도 우리 모두에게 좋은 기술이 될 수 있을 겁니다.
김보람 <유네스코뉴스> 편집장