컴퓨터가 스스로 더 똑똑해질 수 없는 이유 – 테드 창 (1/2)
(테드 창, 뉴요커)
11세기 캔터베리의 신학자 안셈은 신의 존재를 이렇게 증명했습니다. 곧, 신의 정의는 우리가 상상할 수 있는 가장 위대한 존재이며, 존재하지 않는 신보다 존재하는 신이 더 위대하기 때문에 신은 존재한다는 것입니다. 이는 존재론적 증명으로 불리며 천 년이 지난 지금까지 이야기될 정도로 많은 이들이 이를 받아들였습니다. 이 존재론적 증명에 대한 비판으로는 이 증명이 사용한 신의 정의 자체가 존재를 가정한 것이며, 따라서 정의를 잘못 사용했다는 것입니다.
사람들이 존재를 증명하기 위해 노력한 것은 신 외에도 더 있습니다. “어떤 뛰어난 인간의 모든 지적 활동보다 훨씬 뛰어난 일을 할 수 있는 기계를 초지능 기계라고 하자” 이는 수학자 어빙 존 굿이 1965년에 한 말입니다.
“이 기계는 다른 기계를 만들 수 있을 것이며, 따라서 초지능 기계는 자신보다 더 뛰어난 기계를 만들 수 있을 것이다. ‘기계 지능의 폭발적 증가’가 일어나고 인간은 크게 뒤처질 것이다. 즉, 초지능 기계는 적어도 그 초지능 기계가 자신을 어떻게 제어해야 하는지 우리에게 알려줄 정도로 착하다면, 인간에게 필요한 최후의 발명품이 될 것이다.”
이 기계 지능의 폭발적 증가는 1993년 컴퓨터 과학자이자 작가인 베너 빈지가 이를 “특이점(the singularity)”라 부르면서 다시 등장했고, 지금까지도 기술주의자와 철학자들 사이에서 언급되고 있습니다. 닉 보스트롬의 “슈퍼인텔리전스”, 맥스 테그마크의 “라이프 3.0”, 스튜어트 러셀의 “인간과의 공존: 인공 지능의 제어 문제(Human Compatible: Artificial Intelligence and the Problem of Control)” 등은 모두 인공지능이 자신보다 더 뛰어난 인공지능을 끝없이 만들어낸다는 “재귀적 자가발전” 시나리오를 이야기하고 있습니다.
나는 굿과 안셈의 논리가 유사하다고, 곧 두 증명 모두 정의 자체의 문제를 가지고 있다고 생각합니다. 이들이 사용한 정의는 얼핏 그럴듯해 보이며 그래서 많은 이들에게 설득력 있게 받아들여졌습니다. 하지만 이들의 논증은 자세히 검증할 필요가 있습니다. 나는 굿의 주장 뒤에 숨은 가정을 엄밀하게 살펴볼수록 이들이 말하는 지능의 폭발적 증가가 실은 그리 그럴듯하지 않다는 사실을 알게 되었습니다.
——
인간의 경우 재귀적 자가발전은 어떤 식으로 이루어질까요? 논의의 편리를 위해 인간의 지능을 IQ로 가정하겠습니다. 이는 IQ 테스트 결과가 실제로 그 사람의 지능을 나타낸다고 내가 생각한다는 뜻이 아니라, 그저 어떤 지능을 하나의 숫자로 나타낼 수 있다는 개념을 이들은 지능의 폭발적 증가를 설명하는 가정으로 사용했기 때문입니다. 이 경우, 재귀적 자가발전을 다시 쓰면 이런 주장이 됩니다. 어떤 사람의 IQ가 300이라면, 그는 IQ가 300인 다른 사람의 IQ를 350으로 더 높이는 그런 문제를 풀 수 있다는 것입니다. 그리고 IQ가 350인 사람은 IQ가 350인 사람의 IQ를 400으로 더 높이는, 더 어려운 문제를 풀 수 있으며, 이런 식으로 계속된다는 뜻입니다.
그런데 지능이 과연 이렇게 작동한다고 우리가 받아들여야 할 이유가 있을까요? 나는 그렇게 생각하지 않습니다. 예를 들어, 세상에는 IQ가 130인 사람이 충분히 많습니다. 그리고 소수지만 IQ가 160인 사람이 있지요. 하지만 어떤 이도 IQ가 70인 사람의 IQ를 100으로 – 이는 위의 문제들에 비해 쉬운 문제로 보이지만 – 만들지 못합니다. 지금까지 어떤 이도 IQ 테스트로는 측정도 할 수 없을 정도로 낮은 동물의 지능을 높이지 못했습니다. 어떤 이의 IQ를 높이는 것이 일종의 수학 문제를 푸는 것이라면, 적어도 아주 낮은 IQ를 가진 이들이 처한 문제는 쉬운 문제일 테니 우리가 풀 수 있었어야 합니다. 하지만 아직 그런 예는 없습니다.
어쩌면 이는 우리가 지능을 높이는 데 필요한 최소한의 지능 기준에 비해 지능이 너무 낮아서 그런 것일 수 있습니다. IQ 300이 되면, 그때부터 다른 이의 IQ를 높일 수 있게 될 수도 있습니다. 설사 그렇다 하더라도, 그 이후 무한한 자가발전이 가능할지는 전혀 다른 문제입니다. 예를 들어, IQ가 300인 사람은 다른 사람의 IQ를 200까지 올릴 수도 있습니다. 주변의 모든 사람을 IQ 200으로 올리는 것은 그 자체로 엄청난 일입니다. 하지만 여전히 여기에는 오를 수 있는 한계가 있습니다. 곧, 자가발전은 어느 수준까지만 가능하고, 지능의 폭발적 증가는 일어나지 않습니다.
IBM의 연구원이었던 에머슨 푸는 이런 말을 했습니다. “사람의 뇌가 우리가 이해할 수 있을 정도로 단순하다면, 우리의 뇌는 너무 단순해서 이를 이해할 수 없을 것이다.” 이 말은 매우 직관적입니다. 하지만 더 중요한 것은, 이 말에는 확실한 근거가 있다는 것입니다. 바로 C. 엘레강스라는 선충입니다. 이 생명체는 인류 역사를 통틀어 가장 깊게 이해된 동물입니다. 과학자들은 이들의 유전자를 분석했고, 959개의 체세포가 어떻게 분열되는지를 모두 파악했습니다. 302개의 신경세포가 어떻게 연결되어 있는지도 알고 있습니다. 하지만 여전히, 우리는 이 동물의 행동을 이해하지 못합니다. 인간의 뇌는 평균 860억 개의 신경세포로 이루어져 있지만, C. 엘레강스의 302개 신경세포를 이해하기 위해 어쩌면 거의 모든 신경세포를 다 써야 할지 모릅니다. 이 두 숫자의 비는 너무 커서 인간의 뇌를 이해하기 위해서는 얼마나 많은 신경세포가 필요할지는 가늠하기도 힘들어 보입니다.
지능의 폭발적 증가를 지지하는 다른 이들은 무언가의 지능을 이해하지 못한 상태라도 그 지능을 향상하는 것이 가능하다고 주장합니다. 이들은 인간의 뇌나 AI 프로그램에 어떤 숨겨진 “지능의 비밀 열쇠”가 있으며, 그 열쇠를 찾기만 하면 문제가 풀릴 것이라 말합니다. 나는 우리가 지금 그 열쇠가 될 수 있는 얼마나 많은 후보를 가지고 있는지 알지 못하며, 따라서 이 주장이 얼마나 그럴듯한지도 알지 못합니다. 가장 흔하게 언급되는 것은 인공지능을 향상하기 위해서는 그 인공지능이 돌아가는 컴퓨터의 속도를 높이면 된다는 것입니다. 어떤 이들은 이렇게 말합니다. 우리가 사람과 비슷한 수준의 지능을 가진 프로그램을 만들기만 하면, 그 프로그램을 아주 빠른 컴퓨터로 구동함으로써 인간보다 더 뛰어난 지능을 가지게 된다는 것입니다. 이 방법으로 지능의 폭발적 증가가 가능할까요?
예를 들어, 평균적인 개발자 한 명과 비슷한 수준의 지능을 가진 인공지능 프로그램이 있다고 해 봅시다. 그리고 이 프로그램을 100배 속도로 돌아가는 컴퓨터로 1년 동안 돌렸다고 가정합시다. 이는 한 사람을 100년 동안 방안에 가두고 한 가지 일만을 시킨 것과 비슷합니다. 사람에게 이는 끔찍한 형벌이겠지만, 지금은 그런 문제는 고려하지 않기로 하지요. 즉, AI는 인간의 특징 중 바람직한 특징만 가지고 있고, 그렇지 않은 특징 – 예를 들어 새로움을 추구하거나 스스로 선택하고자 하는 욕망 – 은 가지고 있지 않다는 가정입니다. (이것이 적당한 가정일지는 모르겠지만 그 문제는 다음에 다루기로 합시다.)
이제 우리는 인간과 비슷한 지능이 한 가지 문제에 100년 동안 몰두하게 만들 수 있게 되었습니다. 이를 통해 우리는 어떤 일을 해낼 수 있을까요? 이 AI가 하루에 코드를 1,000줄을 짤 수 있다고 합시다. 이는 놀라운 생산성입니다. 이 속도로 이 AI가 윈도우 XP를 짜는 데는 약 100년이 걸립니다. 이는 놀라운 성과지만, 우리가 기대한, 더 성능이 뛰어난 AI를 만드는 것과는 거리가 멉니다. 더 뛰어난 성능의 AI를 만드는 데는 좋은 코드를 짜는 것 이상의 능력이 필요합니다. AI 연구에서 특별한 전진이 있어야 하며, 이는 평균적인 컴퓨터 프로그래머 한 명이 아무리 오랜 시간을 들여도 하기 힘든 일입니다.