[뉴페@스프] 챗GPT가 일깨운 ‘결정적 시점’은 지금이다!
* 지난해 11월부터 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 그에 관한 해설을 쓰고 있습니다. 그 가운데 저희가 쓴 글을 스프와 시차를 두고 소개합니다. 스브스프리미엄에서는 뉴스페퍼민트의 해설과 함께 칼럼 번역도 읽어보실 수 있습니다.
** 2월 2일 스프에 쓴 글입니다.
인간에게 언어는 어떤 의미일까요? 인간이 만물의 영장이 되고 지구를 정복할 수 있던 가장 큰 이유로 언어 능력을 꼽는 학자들이 있습니다. 언어는 정확하고 엄밀한 의사소통을 가능하게 할 뿐 아니라 복잡한 개념을 정의할 수 있게 만들고, 논리와 유비를 통해 인간이 현실을 이해하게 하는 핵심적인 역할을 합니다. 곧, 우리 문명의 근본에는 언어가 자리 잡고 있습니다.
‘모라벡의 역설’ 무색게 한 챗GPT
인공지능 분야에는 “모라벡의 역설”이라는 것이 있습니다. 이는 인간에게 쉬운 것은 기계에 어렵고 인간에게 어려운 것은 기계에 쉽다는 것입니다. 아이들이 서너 살만 돼도 할 수 있는 뛰어놀기, 사람을 알아보기, 의사소통 등이 기계에는 매우 어려운 일이지만, 기계가 잘하는 매우 복잡한 계산이나 반복작업은 인간에게 어렵습니다.
그러나 최근 AI의 발전은 모라벡의 역설을 무색하게 만들었습니다. 적어도 사진에서 개와 고양이를 구별하거나 물건을 파악하고, 사람을 구별하는 능력에서는 이제 기계와 인간이 거의 동일합니다. 하지만 알파고의 충격과 딥러닝의 무수한 성공이 발표된 최근까지도, 기계와 인간 사이의 의사소통이 가능할지, 곧 가까운 시일 내에 기계가 인간의 언어를 이해하고 인간과 대화할 수 있을지에 대해서는 대부분 전문가가 부정적이었습니다.
하지만 최근 발표된 챗GPT는 이런 질문에 대한 사람들의 생각을 조금 바꾸었습니다. 물론, 챗GPT가 정말 인간처럼 의사소통이 가능한 것은 아닙니다. 하지만 챗GPT를 사용해본 많은 사람은 적어도 ‘앞으로 기계가 인간의 말을 이해하게 될까?’라는 질문에 ‘그럴 가능성이 매우 높다’라고 입을 모으고 있습니다. 설마 이런 것까지 답을 해줄까 싶은 질문에도 상당히 완성도 높은 답변이 나오니까요.
언어를 이해한다는 것
저는 최근에 파티에서 만난 한 외국인 노 변호사로부터 만남이 즐거웠고 언제 같이 점심을 먹자는 이메일을 받았습니다. 이전 같으면 영어로 문장을 생각하며, 초안을 쓰고 제가 아는 영어 교사에게 유료로 교정을 받고 답장을 보냈을 겁니다. 하지만 이번에는 챗GPT에 위 메일에서 사람들의 이름을 지운 뒤 ‘이런 메일을 받았어. 답을 써줘’라고 부탁해 봤습니다. 솔직히 제가 쓴 초안보다 더 나은 글을 얻었습니다.
결국, 챗GPT는 언어를 이해한다는 것이 그저 단어 간의 관계를 이해하는 것으로 충분한지, 그리고 만약 그렇다면 더 많은 데이터로 더 많은 변수를 학습하기만 하면 되는 것인지라는 질문에 ‘그럴지 모른다’라고 대답한 셈입니다. 그리고 이 질문은 곧 우리 인간의 뇌가 가진 특별함이 그저 수많은 연결만으로 흉내 낼 수 있는 것인지라는 질문과 같습니다.
처음으로 언어가 어쩌면 무척 단순한 문제일지 모른다는 느낌을 받은 것은 ‘Word2Vec’이라는 개념을 보았을 때입니다. 이는 단어, 곧 개념을 가상 공간의 벡터에 대응시키는 방법입니다. 간단히 말하면, 왕이라는 개념에서 남자를 빼고 여자를 더하면 여왕이 됩니다. 이는 개념들 사이의 논리적 연산을 가능하게 합니다. 자연스럽게, 공간을 매우 크게 만들고 개념들의 관계인 문장을 다시 벡터로 만들면 문장 간의 연산도 가능할 것이라는 느낌을 줍니다. 챗GPT는 바로 그 작업이 가능하다는 것을 보여주고 있습니다.
그리고 ‘이해’에 대한 저의 경험도 이 질문에 긍정적인 답으로 기울게 합니다. 저는 종종 학생들에게 자신이 한 개념을 이해했는지 확인하고 싶으면, 자신이 아는 기존의 개념들을 이용해 새로이 배운 어떤 개념을 표현할 수 있는지, 그것도 다양한 방법으로 표현할 수 있는지 확인해보라고 말했습니다. 이는 곧, 새로운 개념이 다른 개념들 간의 관계를 통해 뇌 안에 자리 잡았는지 확인하는 작업이기도 합니다.
지난 15일, 뉴욕타임스에 실린 데이터 과학자 네이선 샌더스와 보안 전문가 브루스 슈나이어의 우려는 바로 이런 전망을 바탕으로 하고 있습니다. 그들은 챗GPT와 관련 기술이 부족하나마 인간을 매우 비슷하게 흉내 낼 수 있다면 지금 우리 사회를 유지하는 시스템인 민주주의가 위험해질 수 있다고 경고합니다.
그들이 먼저 우려하는 것은 온라인 공간의 댓글과 같은 작업을 통해 사람들의 생각에 영향을 미치는 것입니다. 챗GPT가 없다면 적어도 이런 작업을 위해서는 이 일을 할 수 있는 이들을 상당한 비용을 주고 고용해야 했습니다. 하지만 챗GPT는 인간을 비슷하게 흉내 낼 수 있으며, 따라서 그 비용을 크게 줄였습니다. 이제 정말로 어떤 문제에 대해 한쪽으로 치우친 그럴듯한 댓글을 수천 명이 단 경우에도 과연 저 많은 사람이 그렇게 생각하는지를 의심해야 할 정도입니다.
이들이 더 크게 걱정하는 것은 앞으로 AI가 민주주의 제도를 해킹하는 것입니다. 대표적인 예로 그들은 우리에게는 다소 생소한 미국의 로비 시스템을 들고 있습니다. 민주주의는 다수의 의견을 반영하기 위한, 그리고 소수가 자신의 이익을 위해 시스템을 악용하지 못하게 하는 여러 장치를 두고 있습니다. 지금까지는 이 장치의 복잡성이 오히려 시스템을 보호했습니다.
하지만 보안 전문가인 슈나이어는 자신의 블로그에 쓴 글을 통해 이 복잡성이 오히려 시스템을 해킹하기 쉽게 만들며, AI는 여기에 특화된 기술이라 말합니다. 그리고 미국의 로비 시스템을 예로 들며, AI가 이 과정을 기존의 권력자들에게 훨씬 더 유리한 방향으로 만들어버릴지 모른다고 우려합니다.
인간을 닮은 기계와 함께 사는 시대 준비해야
인간은 지난 수천 년 동안 자신이 동물보다 더 뛰어나다는 것을 증명해왔습니다. 하지만 지난 수백 년 동안 과학은 인간과 동물이 크게 다르지 않다는 것을 보였습니다. 그리고 지난 몇 년 동안 우리는 기계가 인간과 그리 다르지 않다는 것을 알게 되었습니다.
언어가 인간 지성의 중추라면, 챗GPT와 같은 거대 언어 모델이 인간의 조건을 상당수 만족하리라는 것은 분명해 보입니다. 이제 우리는 정말로 새로운 시대를 준비해야 할 결정적 시점에 도달했습니다.