챗GPT는 마치 세상 모든 걸 다 알고 있는 것인 양 어떤 질문에든 솔깃한 대답을 내놓는다. 하지만 인터넷 상의 방대한 자료를 모두 ‘읽었다’고 하는 이 인공지능에게서는 허풍쟁이의 냄새도 난다. 따라서 우리는 챗GPT를 믿기보다는 다만 이용해야 하며, 수려한 말솜씨에 감탄하기보다는 그보다 더 공평하고 다양한 이야기를 요구해야 한다.
말하는 인공지능과 말을 하기 위한 인공지능
“역사를 돌아보면 우리는 새로운 소통 기술이 등장할 때마다 단기적 충격을 과대평가하고 장기적 함의를 과소평가하는 경향이 있다. 활자인쇄, 영화, 라디오, 텔레비전과 인터넷이 출현했을 때처럼, 지금 우리는 똑같은 인지적 회전목마에 다시 올라탔다.”
영국 개방대학교(Open University)의 존 노튼(John Naughton) 교수가 1월 7일 『가디언』에 쓴 말대로, 지금 전 세계에서 부는 챗GPT(ChatGPT) 열풍에는 새 기술에 대한 우리의 본능적인 두려움과 환호, 우려와 희망이 뒤섞여 있다. 챗GPT가 보여주는 인간과 자연스럽게 대화할 수 있는 능력은 지금까지 나온 그 어떤 기술보다도 이 인공지능을 더 사람처럼 보이게 만들고 있다. 노튼 교수는 챗GPT가 “앤트로포모피즘(anthropomorphism; 신이나 동물, 사물 등의 의인화)에 불을 지폈다”라고 말하며, 이 능력이 “사람들로 하여금 이 기계를 일종의 의식이 있는 것처럼 여기게 만들었다”고 했다. 그러면서 이러한 경향에 대한 가장 좋은 처방은 그것이 정확히 무엇인지, 어떻게 동작하는지를 알아보는 것이라고 덧붙였다.
‘말하는 인공지능’과 ‘말하도록 고안된 인공지능’은 다르다. 많은 경우 챗GPT는 말하는 인공지능 취급을 받고 있지만, 엄밀히 말해 이것은 ‘자연스러운 말을 하도록 고안된 인공지능’이다. 챗GPT에게 직접 물어보면 스스로를 “대량의 텍스트 데이터를 이용하여 사전 훈련(pre-training)되었으며, 일련의 언어 이해 및 생성 작업을 수행하는 언어모델”이라고 설명한다. 대화(chat)에 방점이 찍혀 있는, 사람과의 자연스러운 채팅을 하기 위해 고안된 기술이라는 뜻이다.
챗GPT가 ‘자연스러운 대화’를 위해 고안된 서비스임을 떠올리는 것만으로도 우리는 그것의 장점과 한계까지 어느 정도 유추할 수 있다. 장점은 당연히 사람을 상대하듯 자연스러운 대화의 느낌을 체험할 수 있다는 것이며, 한계는 ‘대화 이상의 너무 많은 것을 기대하면 안 된다는 것’이다. 개발사인 오픈AI도 홈페이지에 “(챗GPT가) 그럴듯하게 들리지만 부정확하거나 앞뒤가 맞지 않는 답을 쓸 때가 있다”고 명시해 놓고 있다.
인공지능의 말하기 비법
챗GPT의 작동 원리를 들여다보면 이는 더욱 분명해진다. 오픈AI의 설명에 따르면, 챗GPT는 GPT(Generative Pretrained Transformer; 사전학습된 자연어 생성자)라는 언어 모델의 세 번째 버전, 즉 GPT-3이 인간의 피드백에 바탕을 둔 강화 학습(RLHF)을 거친 결과물인 ‘인스트럭트GPT(InstructGPT)’를 기반으로 문장을 생성한다. 개발자들이 직접 작성한 논문에 따르면 GPT-3에는 약 4990억 개의 ‘토큰(token; 기계가 학습 대상으로 삼는 일정한 뜻을 가진 문자의 최소 단위)’이 입력됐고(혹은 ‘학습’했고), 여기에는 2021년까지 인터넷 상에 공개된 방대한 양의 글과 도서가 포함돼 있다. GPT는 토큰마다 일정한 값을 할당해 상대적인 위치를 파악한다. 수천억 개의 단어와 단어 사이의 상대적인 관계를 좌표로서 기억하는 일종의 ‘지도’를 만드는 셈이다. 예를 들면 ‘얼큰한’이라는 토큰 가까이에 ‘해장국’이나 ‘라면’ 등의 토큰이 있을 확률은 ‘딸기케이크’가 있을 확률보다 훨씬 높다. 이러한 방식으로 앞뒤가 맞는 적절한 단어를 골라내 대화를 이어가는 방식을 대규모 언어 모델(Large Language Model, LLM)이라 부르며, 많은 대화형 프로그램이 이를 사용한다. 존 노튼 교수는 “(인공지능 대화 모델에게) ‘처음으로 달에 발을 딛은 사람은?’이라고 물었을 때 이 모델이 ‘닐 암스트롱’이라 답하는 것은 인공지능이 달 탐사의 역사나 아폴로 프로그램을 ‘잘 알고 있어서’가 아니라, 당신이 던진 질문 자체가 사실은 ‘방대한 (영문) 텍스트의 집합 중에서 ‘달 표면을 처음으로 거닐었던 사람’과 함께 나타날 빈도가 가장 높은 단어’를 물어본 것이기 때문”이라고 설명했다.
물론 챗GPT는 그러한 작업을 그 어떤 프로그램보다 훌륭하게 잘 해낸다. 이는 인공지능이 40여 개 계약 업체에 고용된 사람들이 직접 쓴 수많은 샘플 답변을 자신이 만든 대답과 비교해 학습하는 과정을 반복한 결과다. 오픈AI는 챗GPT를 구동하는 인스트럭트GPT가 GPT-3에 비해 “훨씬 나은 대화를 생성”하고, “답변을 덜 조작하며, 유해한 답을 내놓는 빈도도 약간 줄었다”고 설명한다. 이러한 성과만으로도 앞으로의 더 큰 발전을 기대할 만도 하다. 지나친 공포나 걱정 혹은 과도한 기대를 냉정하게 접어두고 나면, 이 새로운 도구를 어떻게 활용하며, 이를 통해 우리 인간의 삶이 어떻게 더 나아지도록 할 수 있는지를 고민하는 것은 더욱 생산적인 일이 될 수 있다.
도우미로서의 인공지능 활용법
인터넷 뉴스매체 『슬로우뉴스』의 김낙호 편집위원은 2월 24일자 기사에서 챗GPT와 같은 도구가 ▲적절한 단어나 문형 찾기 등의 문장 쓰기 지원 ▲일반적인 글쓰기에서 기대되는 내용 중 누락된 것이 없는지 확인하는 ‘기본’ 구조와의 비교 ▲내 글이 인공지능으로 뽑은 것보다 더 나아 보이는지 점검하는 품질 점검에서 유용하게 활용될 수 있다고 썼다. 반면에 ▲아이디어 개발(GPT3의 구동 방식상 결과물은 “평범함으로 수렴한다”) ▲증거에 대한 사실 확인(언어를 시뮬레이션하는 도구이므로 자연스러운 주장을 펼치기 위해 “증거를 생성·조작한다”) ▲아이디어와 증거 출처 맥락화(AI는 학습한 것을 새로운 언어로 바꿔 표현하는 식으로 작동하므로 “자료의 원 출처를 기억하지 못한다”) ▲개성(문체를 “흉내내는 데만 능숙하다”)의 측면에서 AI 도구를 활용하는 것은 재앙이라고 했다. 만약 “어떤 현상을 비판적으로 분석하고 더 나은 방향으로 개선하기 위한 아이디어 제안”을 챗GPT에게 위탁한다면, 인공지능은 그저 “평범하고 얄팍한 훈계질, 수많은 가짜 근거, 출처 미표시로 인한 사실상의 표절 행위, 그리고 그저그런 평범한 문체로 채워넣은 결과물을 내놓을 것”이라고 꼬집었다. 존 노튼 교수 역시 현 상황에서 가장 최선의 챗GPT 활용법은 “인간의 역량을 늘려주는 도구 혹은 조수로서 활용하는 것”이라고 잘라 말한다.
결국 우리가 정말로 감탄해야 할 부분은 인공지능이 사람 같은 대답을 줄줄 읊어대는 행위 자체가 아니라, 엄청난 양의 데이터를 매끈하게 정리해 내놓을 줄 아는 이 능력이 인간의 통찰과 결합될 때 나올 수 있는 결과물이다. 지난 3월 미국의 차세대 과학자를 발굴하고 지원하는 STEM(과학·기술·공학·수학) 경시대회인 ‘리제네론 과학 인재 찾기(Regeneron Science Talent Search)’에서 2등상을 수상한 여고생 에밀리 오카시오(Emily Ocasio)의 연구가 바로 그러한 사례를 보여준다. 오카시오는 1976-84년 사이에 『보스턴 글로브』에 실린 살인사건 기사 중 5천여 건을 골라내 GPT-3를 활용해 분석·분류한 뒤 “언론이 살인 희생자를 착하고 선한 ‘이상적인 희생자’로 묘사하는 빈도가 인종 및 성별, 민족에 따라 차별적”이라는 연구 결과를 내놓았다. 유튜브를 통해 그녀가 직접 설명한 바에 따르면, 오카시오는 ▲‘이상적인 희생자’ 모델이 인종·성별 등에 따라 다르게 적용되리라 가정하고(아이디어 개발 직접 수행) ▲조사를 통해 골라낸 기사를 일일이 FBI의 실제 데이터베이스와 대조해 확인한 뒤(증거에 대한 사실 확인 직접 수행), 그렇게 선별한 기사 5천여 건의 내용에서 기본적인 사실 외에 피해자의 직업이나 가족관계 등을 부연함으로써 인간적 면모를 부각시킨 묘사가 있었는지를 GPT-3로 하여금 골라내 분석토록 했다. 인공지능은 놀라운 속도와 효율성으로 지시한 바를 정확히 수행해 그 결과를 내놓음으로써 오카시오의 조수, 혹은 비서의 역할을 훌륭히 수행했다.
다언어적이지만 단일문화적인
인공지능과 같은 신기술을 인간의 역량을 늘려주는 도구로서 잘 활용할 수만 있다면, 챗GPT와 함께하는 우리의 미래는 한층 더 편리하고 풍요로워질 수 있을 것임은 분명하다. 하지만 인공지능이나 ‘유전자 가위’와 같이 우리 사회와 인간의 삶에 근본적인 변화를 불러일으킬 수 있는 최신 과학기술이 등장할 때마다 공평하고 윤리적이며 포용적인 접근을 강조해 온 유네스코로서는 이 훌륭한 도구를 그저 ‘잘 쓰는 법’ 이상의 조건도 짚어보지 않을 수 없다. 바로 이러한 도구가 학습해 둔, 예컨대 GPT-3의 경우 텍스트로만 이루어진 약 800기가바이트에 달하는 엄청난 양의 지식이 애초에 얼마나 정확하고, 공평하며, 포용적인가 하는 것이다.
사실 언어적인 측면에서 챗GPT는 이미 95개의 언어로 유창하게 대화를 할 수 있을 정도로 상당한 수준의 다양성을 보여주고 있다. 소수민족 언어까지 포함해 지구상에 7천여 개의 언어가 있다는 것을 감안하면 이는 여전히 많은 숫자라고는 할 수 없지만, 한국어를 포함해 그간 ‘언어지원’ 측면에서 불리한 위치에 있던 비주류 언어 사용자들의 입장에서 이 정도 수준의 언어 지원이 외국 자료에 대한 접근성을 상당히 높여주는 것은 틀림없다. 하지만 이 인공지능이 어떤 언어를 활용할 수 있는지와 해당 언어를 통해 전달되는 ‘문화’를 이해하고 있는지는 전혀 관계가 없는 이야기다. 챗GPT가 95개의 언어라는 외투를 입혀 내놓는 말의 원천은 방대한 양의 ‘미국을 중심으로 한 주류 문화와 지식’ 일변도이기 때문이다. 노르웨이 베르겐대 디지털 내러티브 센터 소장이자 디지털 문화 분야 전문가인 질 워커 레트버그(Jill Walker Rettberg) 교수는 자신의 블로그에서 챗GPT를 “다언어적이지만 단일문화적(multilingual but monocultural)”이라고 묘사하기도 했다. 레트버그 교수의 조사에 따르면 이 인공지능이 ‘학습’했다고 자랑하는 4990억 개의 방대한 토큰은 애초부터 문화적으로도, 언어적으로도, 그리고 젠더 측면에서도 편중돼 있다. 이 토큰은 약 60%의 일반 인터넷 자료(‘Common Crawl’로 지칭)와 22%의 특정 사이트 내 자료(‘WebText2’로 지칭), 16%의 온라인 공개 도서, 3%의 영문 위키피디아 자료로 이루어져 있는데, 그중 60%를 차지하는 일반 인터넷 자료의 51.3%는 미국에 주소를 두고 있는 웹사이트로부터 추출했다. 여기서 세계 2·3·4위의 영어 이용 인구를 가진 인도·파키스탄·나이지리아의 웹사이트는 각각 3.4%, 0.06%, 0.03%에 지나지 않는다. 레트버그 교수는 이렇게 편중된 소스마저도 인공지능의 부적절한 대답을 막기 위해 “흑인, LGBTQ+ 등 소수자 정체성을 지칭하는 단어”와 “성적인 단어들을 필터링했다”면서 “이 과정에서 소수집단뿐 아니라 퀴어 문화나 동성결혼 등에 관한 합법적인 자료들도 함께 사라졌다”고 지적했다. 22%를 차지하는 특정 사이트 내 자료 역시 편중돼 있기는 마찬가지다. 개발사는 여기에 활용된 자료가 미국의 뉴스 및 콘텐츠 리뷰·토론 사이트인 ‘레딧(reddit.com)’에서 3개 이상의 추천을 받은 글이라고 밝히고 있는데, 이것이 풍요롭고 다양한 우리 인류의 지식을 얼마나 대표할 수 있는지는 굳이 따져볼 필요가 없다.
다양한 이야기는 다양한 문화적 토대로부터
질문을 받으면 어떻게든 답을 내놓도록 프로그래밍된 인공지능에게는 모르는 것을 모른다고 할 용기가 없다. [글상자]에서 보듯 챗GPT에게 사라져가는 우리의 제주어 ‘지슬’(감자라는 뜻)을 활용해 시를 한 편 지어볼 것을 부탁하면 금새 한 편의 시가 나오지만, 사실 이 인공지능은 ‘지슬’이 무슨 뜻인지도 알지 못한다. 이에 대해 재차 물어보면 그저 순순히 사과를 할 뿐이다.
인공지능으로부터 ‘쿨’하고 해맑은 사과를 받더라도 사용자 입장에서 씁쓸한 뒷맛이 남는 이유는, 설령 알고리즘이 더욱 개선되고 학습 자료의 폭이 극적으로 넓어지더라도 이 인공지능으로부터 정말 다양한 이야기를 듣지는 못하리라는 걸 알기 때문이다. 유네스코가 2005년에 「문화적 표현의 다양성 보호와 증진 협약」을 채택하고 이후 다양한 사업을 펼치며 노력을 기울여 왔음에도, 20세기 이후 갈수록 확대되어 온 언어 격차와 기술 격차 등은 이미 주류 문화와 그렇지 못한 문화 사이에 극복하기 힘든 골을 파 놓았다. 철저히 과소대표되어 온 아프리카와 아시아, 중남미의 수많은 꺼져가는 소수 문화들은 아직까지도 전 세계를 연결하는 인터넷으로부터 멀리 떨어져 있다. 이를 만회하기 위한 보다 근본적인 고민이 있지 않는 한, GPT-3의 후손의 후손, 이를테면 GPT-500이 등장하더라도 인공지능은 우리에게 공평하고 다양한 이야기를 들려주지 못할 것이다. 그것이 인공지능이 척척박사 같은 대답을 몇 초만에 내놓는 21세기에도 유네스코가 문화다양성 증진을 위한 노력을 계속 이어가는 이유이기도 하다.
김보람 『유네스코뉴스』 편집장