[EDGE 재단: 생각하는 기계에 대하여] 4. 데니얼 데닛: 싱귤라리티 – 도시전설?
2015년 2월 26일  |  By:   |  과학  |  No Comment

[역자주: 존 브록만의 EDGE 재단은 매년 한 가지 질문을 정해 석학들에게 던지고 있습니다. 올해의 질문은 “생각하는 기계를 어떻게 생각하는가?” 입니다. 187개의 대답 중 몇 개를 소개합니다.]

데니얼 데닛: 철학자, 터프츠 대 인지연구소 소장, “직관 펌프(Intuition Pumps)”의 저자

싱귤라리티 – 도시전설?

싱귤라리티는 인공지능이 인간의 지능을 뛰어넘고 지구를 지배하게 될 때를 가리키는 단어입니다. 이 단어는 생각해볼 가치가 있는 개념입니다. 이 단어는 도시전설의 전형적인 형태를 띄고 있습니다.어떤 과학적으로 그럴듯 해 보이는 주장 (“이론적으로 이는 가능해 보인다”)과 유혹적이면서 충격적인 선언 (“로봇이 인간을 지배하게 된다니!”)이 맞물려 있습니다. 지난 수십년 동안의 소동에 가까웠던 인공지능 분야 덕분에 어떤 이들은 싱귤라리티를 그저 우화나 농담으로 받아들일지 모릅니다. 그러나 이 개념은 점점 더 설득력이 있는 것으로 받아들여지고 있습니다. 엘론 머스크, 스티븐 호킹, 데이비드 칼머와 같은 저명한 이들이 여기에 동조하고 있습니다. 어떻게 이를 진지하게 받아들이지 않을 수 있을까요? 싱귤라리티가 10년뒤이건 100년 뒤이건 1000년 뒤이건, 이런 중대한 사건에 대해 미리 준비하고 대책을 세우는 것이 더 옳은 일이 아닐까요?

그러나 내 생각은 조금 다릅니다. 나는 이런 경고가 오히려 우리를 더 중요한 문제로부터 눈감게 만든다고 생각합니다. 임박한 이 중요한 문제는 싱귤라리티에서 말하는 무어의 법칙이나 다른 어떤 획기적인 이론적 발전 때문이 아닙니다. 수백년동안 우리는 힘들게 자연을 이해했습니다. 역사상 처음으로 인간은 자신의 운명을 스스로 결정할 수 있게 되었지만 곧바로 이 결정권을 ‘생각’할 줄 모르는 인공의 주체에게 넘기려 하고 있습니다. 너무 섣부르게 문명을 자동 조종장치에 맡기고 있습니다. 이 과정은 눈에 보이지 않게 이루어지며, 하나 하나의 과정은 일리 있어 보이기 때문에 그것을 거부하는 것이 쉽지 않습니다. 더 빠르고 정확한 계산기(반올림 오차를 무시한다면)가 있는 오늘날, 손으로 그 계산을 하겠다고 한다면 바보 취급을 받을 것입니다. 언제든지 기차 시간표를 스마트폰에서 볼 수 있는데 그걸 외울 이유가 있을까요? 이제 지도를 읽는 방법과 길을 찾는 방법은 GPS 가 책임지고 있지요. GPS 는 의식을 가지고 있지 않습니다. 이 기계가 생각을 한다고 말할 수는 없죠. 하지만 당신이 어디에 있고, 어디로 가고 있는지를 훨씬 더 잘 알고 있습니다.

이야기를 더 진행해 봅시다. 의사들은 온갖 진단장치에 기대고 있습니다. 그들은 인간의 진단보다 훨씬 더 정확합니다. 과연 생명이 걸린 순간에 의사에게 기계의 결과를 무시하라고 말할 수 있을까요? IBM 의 왓슨(역주: 인간보다 퀴즈를 더 잘 푸는 기계)이 생각을 하는지 하지 않는지의 여부는, 왓슨이 이미 가진 이런 기술에 비하면 전혀 중요한 문제가 아닙니다. 만약 왓슨이 언젠가 의사보다 환자를 더 잘 진단하게 된다면, 그에게 판단을 맡기는 것이 도덕적으로도 더 올바른 행동일 것입니다. 기계의 판단을 무시하는 의사는 의료소송에 휘말리게 될 것입니다. 기계의 도움으로 확장될 수 있는 인간능력의 종류에는 한계가 없어 보이며, 그 능력이 순수한 인간의 능력보다 뛰어나다는 것이 확실해 지는 순간, 지금까지 언제나 그래왔듯이 자연스럽게 이는 인간을 대체하게 될 것입니다. 인간의 능력이 필요한 법률과 과학 정도만이 도자기 공예와 수제 스웨터와 함께 니치 마켓을 차지할 날이 올 것입니다.

인공지능의 초기 시절, 인공지능(artificial intelligence)과 인지 시뮬레이션(cognitive simulation)을 구분하려는 시도가 있었습니다. 인공지능 분야는 인간의 사고과정을 흉내내는 것이 아니라 그저 그 방법에 무관하게 인간이 하는 일을 수행할 수 있도록 하려는 시도였습니다. 그리고 인지 시뮬레이션은 반대로 심리학과 뇌과학분야의 주도 하에 인간의 사고를 컴퓨터로 모델링 하려는 시도였습니다. 인지 시뮬레이션 분야에서는 만약 그 모델이 인간이 자주 범하는 실수와 오류를 범했다면 오히려 이를 성공으로 여겼습니다. 이제 이런 구분은, 특히 대중적인 의미에서 거의 사라졌습니다. 사람들은 인공지능을 곧 튜링 테스트를 통과하는 인간형 로봇의 지능으로 생각하고 있습니다. 최근 인공지능의 발전은 (우리가 이해하고 있던) 인간의 사고과정이 아니라 수많은 데이터와 이를 연결하고 관련지을 수 있는 빨라진 컴퓨터의 결과입니다. 아이러니하게도 이 방법이 낳은 놀라운 결과들은 인지과학으로 하여금 다시 인간의 사고과정을 생각하게 만들고 있습니다. 사람의 뇌가 어떻게 작동하는지에 대해 우리는 데이터 마이닝 기술과 기계학습 기술을 통해 배울 수 있을 것입니다.

그러나 일반인들은 이런 일을 할 수 있는 주체가 (실제로 어떤 방법으로 그 일을 해내든지와 무관하게) 인간과 같은 지능을 가진 존재라는 생각을 버리지 않을 것입니다. 그러나 실제로는 인간이 가진 걱정, 기억, 충성과 같은 심적 부담을 가지지 않음으로 인해 더 능력이 있는 것처럼 보이는 작은 기판에 불과합니다. 이들은 인간형 로봇이 아니며 그저 마음이 없는 노예이자 최신형 자동조종장치일 뿐입니다.

이런 최신 장치에 어려운 노동으로써의 ‘생각하기’를 떠넘긴다고 해서 뭐가 문제라는 것일까요? 적어도 다음 두 가지를 기억한다면, 문제될 것은 없습니다. 첫째는 1)자신을 속이지 않는 것, 그리고 다른 하나는 2)인간으로써 우리의 두뇌 능력이 퇴화하는 것을 막는 것입니다.

1) 70년대 초 악명높은 요제프 바이첸바움의 엘리자 프로그램의 경우에서 본 것처럼 충분히 뛰어난 어떤 제품의 한계를 상상하는 것은 극히 어려운 일입니다. 특히, 인간은 자신이 이해하는 것보다 더 상대방에게 의지하려는 경향을 가지고 있지요. 그렇기 때문에 과연 우리가 그들에게 그들이 수행하도록 만들어진 과제보다 더 많은 일을 시키고 있지 않는지를, 그리고 믿지 않아야 할 결과까지도 믿고 있는 거은 아닌지를 언제나 스스로에게 물어야 합니다.

2) 쓰지 않으면 잃게 됩니다. 우리는 과거 어느 시대보다도 더 많이 기계, 특히 지적 능력과 관계된 기계의 도움을 받고 있으며 이들을 사용할 수 없게 되었을 때, 완전한 무능력에 빠질 우려가 있습니다. 인터넷은 지적인 존재가 아니지만 (어떤 의미에서는 그렇다고 볼 수도 있겠지만) 우리는 여기에 매우 의존하고 있으며, 따라서 어느날 인터넷을 사용할 수 없게 될 때, 사회는 빠른 시일안에 붕괴될 위험이 있습니다. 이 일은 언제든지 일어날 수 있고, 이것이 바로 지금 우리가 피하기 위해 노력해야 하는 사건입니다.

진짜 위험은 우리보다 더 지능이 높은 기계가 우리의 운명을 지배하는 주인이 되는 것이 아닙니다. 진짜 위험은 무지한 기계가 그들의 능력보다 더 많은 권한을 인간으로부터 부여받는 것입니다.

(EDGE)

원문 보기