[뉴페@스프] 프리드먼의 기대와 우려, 하라리의 강력한 경고… AI는 어디까지 온 걸까
2023년 6월 12일  |  By:   |  SBS 프리미엄  |  No Comment

* 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 그에 관한 해설을 쓰고 있습니다. 그 가운데 저희가 쓴 해설을 스프와 시차를 두고 소개합니다. 스브스프리미엄에서는 뉴스페퍼민트의 해설과 함께 칼럼 번역도 읽어보실 수 있습니다.

** 오늘 소개하는 글은 4월 3일 스프에 쓴 글입니다.


지난 한주는 챗GPT가 촉발한 거대언어모델(LLM) 기반의 AI에 대한 우려가 정점을 찍은 한주였습니다. 3월 21일, “렉서스와 올리브나무”로 잘 알려진, 퓰리처 상을 수상했고 뉴욕타임스에 40년째 칼럼을 쓰고 있는 토마스 L. 프리드먼은 인간의 언어를 거의 정복한 듯 보이는 이 거대언어모델 기반의 AI에 대해 ‘새로운 프로메테우스의 순간’이라 표현했습니다.

프로메테우스는 그리스 신화에서 인간에게 불을 가져다줘 문명을 시작하게 해 준 상징적 존재입니다. 프리드먼은 지금 이 시기가 인쇄기의 발명, 과학 혁명, 인터넷의 등장과 같은 시기라 말하며 이런 프로메테우스의 시기에 인간은 새로운 기술을 이용해 자신의 능력을 증폭시킬 수 있고, 신기술이 제공하는 낮은 비용으로 인해 누구나 그 기술을 사용할 수 있게 되면서 민주화, 곧 인간의 상향 평준화가 일어난다고 말합니다. 이는 인쇄기, 과학학명, 인터넷, 챗GPT에 모두 적용되는 적절한 통찰로 보입니다.

그러나 문제는, 이런 강력한 기술은 끔찍한 무기가 될 수 있다는 점입니다. 프리드먼은 이를 원자력 기술에 비하며 기업과 정부, 학자들이 모두 모여 이 문제를 위한 연대를 만들어야 된다고 말합니다.

전문 번역: 인류가 접어든 새로운 프로메테우스의 순간

 

3월 24일, ‘사피엔스’의 저자이자, 인공지능의 위험성을 일찌감치 지적한 ‘호모데우스’의 저자인 유발 하라리는 다른 두 명의 저자와 함께 거대언어모델에 대한 더 직접적인 경고를 뉴욕타임스에 실었습니다. 이들의 핵심 주장은 언어가 인간 문화의 가장 중요한 요소라는 것입니다. 이는 많은 학자들도 동의하는 사실입니다. 따라서 언어를 완벽하게 구사하는 인공지능은 인간의 문화에 매우 큰 영향을 미칠 수 있다는 것입니다.

그리고 이들은 인간은 본래 현실을 그대로 인지하는 것이 아니라 문화를 통해 현실을 받아들인다고 말하며 영화 ‘터미네이터’에서 AI는 인간을 직접 공격하지만, 이 언어를 통제하는 새로운 AI는 인간들이 서로 방아쇠를 당기도록 이야기를 만들어내기만 하면 된다고 말합니다. 이 주장도 매우 설득력이 있습니다. 따라서 이들은 인공지능이 더 발전하기 전에 이를 준비해야 한다고 주장합니다.

물론 그 주장은 받아들일 수 있습니다. 하지만 한편으로 이야기를 통해 집단 사이의 적대감을 키우는 일은 인류가 선사시대부터 해오던 일입니다. AI 가 이를 더 쉽게 만든다고 해도 핵심은 AI가 스스로 그런 의지를 가질 것인가의 문제입니다. AI를 이용하는 누군가가 반드시 존재할 것이고, 그렇다면 지금과 큰 차이가 있을까요?

이들의 또 다른 주장은 우리 사회를 지탱하는 민주주의는 대화와 토론에 의해 이루어져야 하지만, 언어를 장악한 이는 대화와 토론을 지배할 수 있으며 민주주의를 무너뜨릴 수 있다는 것입니다. 그러나 과연 AI의 등장 이전에는 대화와 토론이 잘 이루어졌었는지 하는 의문이 듭니다. 오히려 AI를 통해 대화와 토론이 더 잘 일어나게 만들 수는 없을까요?

전문 번역: 파란 약과 빨간 약을 여전히 고를 수 있다는 착각

 

3월 29일에는 미국의 비영리단체 ‘퓨처오브라이프’에서 전 세계 모든 AI 연구기관들은 챗GPT-4보다 강력한 거대 AI 시스템 개발을 중단하자고 주장하는 공개서한을 발표했습니다. 여기에는 요슈아 벤지오 교수와 일론 머스크, 앤드류 양, 그리고 위의 칼럼을 쓴 유발 하라리 등 많은 전문가들이 서명했습니다.

공개서한의 주요 내용은 프리드먼과 하라리의 주장과 비슷합니다. AI가 인류의 정보 채널을 거짓으로 가득 채울 것이며 인류가 이에 대한 통제력을 상실할 위험이 있다는 것입니다. 그리고 이에 대한 대안으로 6개월 동안 AI 개발을 중단하고 그동안 AI 안전 프로토콜을 만들며, 또 AI를 감독하고 AI가 유발하는 혼란에 대처할 수 있는 강력한 기관을 만들자고 말합니다. 이는 좋은 의견으로 보입니다. 하지만 현실성 없는 6개월 간의 개발 중지 촉구와 별도로 이러한 프로토콜의 개발과 감독기관의 신설을 동시에 진행해도 되지 않을까 생각합니다.

새로운 기술이 등장하면 언제나 그 기술을 무시하는 이들과 과대평가하는 이들이 같이 존재했습니다. 후자의 이들을 우리는 과대광고를 의미하는 ‘Hype’ 단어를 사용하며 호들갑을 떤다고도 표현합니다. AI 기술에 대해서도 마찬가지입니다. 물론 챗GPT는 대단한 기술이며 ‘AI Hype’들의 주장 중 상당 부분을 현실에서 이뤄냈습니다. 챗GPT와 거대언어모델이 세상을 크게 바꾸리라는 데도 충분히 동의할 수 있습니다.

하지만 이들이 염려하는 대로, 인공지능 때문에 인류가 멸망하거나 그와 비슷하게 힘을 잃게 될 거라는 주장에 대해서는 그 가능성이 원자력 기술이 인류를 위협한 정도보다도 여전히 낮을 것이라고 저는 생각합니다.

마지막으로 딥러닝 최고 석학 중의 한 명이며 거대언어모델에 너무 큰 기대를 가져서는 안 된다고 지속적으로 주장해 온 얀 르쿤이 이번 서한에 대해 한 말입니다. 르쿤은 만약 1440년 가톨릭 교회가 성경이 인쇄될 경우 세상이 무너질 것을 걱정해 인쇄술을 6개월간 금지했다면 어떨지 이야기합니다. 당시 누구나 성경을 읽을 수 있게 되면서 개신교가 등장하고 종교 분쟁이 200년간 유럽을 뒤덮었지만, 동시에 인간의 모든 문명은 비할 수 없이 발전했습니다. 반면 오토만 제국은 18세기까지 책을 금지했고 그 결과 그들의 문명은 쇠락하고 말았습니다.