[EDGE 재단: 생각하는 기계에 대하여] 2. 스티븐 핑커: 지능이 이기심을 의미하는 것은 아닙니다
2015년 2월 25일  |  By:   |  과학  |  No Comment

[역자주: 존 브록만의 EDGE 재단은 매년 한 가지 질문을 정해 석학들에게 던지고 있습니다. 올해의 질문은 “생각하는 기계를 어떻게 생각하는가?” 입니다. 187개의 대답 중 몇 개를 소개합니다.]

스티븐 핑커: “우리 본성의 선한 천사(The Better Angels of Our Nature)”의 저자, 하버드 심리학과

지능이 곧 이기심을 의미하지는 않습니다.

토마스 홉스의 “이성이란 곧 계산하는 능력을 말한다(Reasoning is but reckoning)”는 아마 인류의 역사에 있어 가장 뛰어난 통찰력이 드러난 말 중의 하나일 것입니다. 이성이 계산이라는 물리적 과정에 의해 만들어질 수 있다는 이 말은 20세기에 들어와 간단한 동작의 조합으로 어떠한 계산가능한 함수도 구현할 수 있음을 보인 튜링의 명제와 역시 뉴런의 간단한 동작으로 복잡한 계산이 가능함을 보인 여러 과학자들의 노력에 의해 사실로 확인되었습니다. 두뇌가 가진 인지능력은 물리적 용어로 설명될 수 있습니다. 거칠게 말하자면 믿음은 일종의 정보이며, 생각은 일종의 계산, 그리고 동기는 일종의 반응과 제어라고 말할 수 있습니다.

두뇌의 능력을 물리적으로 설명할 수 있다는 것은 다음의 두 가지 이유로 훌륭한 생각임을 알 수 있습니다. 먼저 이를 통해 우리는 초자연적인 영혼이나 귀신이라는 개념을 몰아내고 이 우주를 자연주의에 입각해 완벽하게 이해할 수 있습니다. 다윈은 자연을 신중하게 관찰하기만 하면 이를 설명하기 위해 신의 창조가 필요하지 않다는 것을 보여주었습니다. 튜링과 다른 이들 역시 인지능력을 신중하게 관찰한다면 영혼이란 개념이 필요하지 않다는 것을 보여준 것입니다.

다른 이유는 바로 이성을 계산으로 설명할 수 있을 때 인공지능, 곧 생각하는 기계를 우리가 만들 수 있게 된다는 것입니다. 인간이 만들 정보처리장치는, 이론적으로 말해, 인간의 능력을 뛰어넘을 수 있습니다. 물론 현실에서는 인간의 기술 발전이 지속가능하지 않거나 경제적 동기부여가 충분치 않음으로 인해 이런 미래가 결국 다가오지 않을 가능성도 있습니다. 그리고 자동차가 말의 복제와 무관했듯이, 인공지능이 인간을 복제하는 것과는 무관할 수도 있습니다. 자동으로 운행하는 자동차와 전염병을 예측하는 시스템이 짝짓기 본능이나 상한 음식을 피하는 본능을 가질 필요는 없겠지요.

어쨌거나, 인공지능을 향한 최근의 작은 발전은 다시금 사람들에게 우리의 지식이 우리를 파멸시킬지 모른다는 불안을 불러일으키고 있습니다. 나는 개인적으로 이런 기계에 대한 공포야말로 감정 에너지의 낭비라고 생각합니다. 원자폭탄을 낳은 맨하탄 프로젝트보다는 한낱 소동에 그친 Y2K 버그에 가깝다고 보는 셈이지요.

우선, 우리는 이에 대비할 충분한 시간을 가지고 있습니다. 인간 수준의 인공지능은 적어도 15년에서 25년 뒤에야 등장할 것으로 예상됩니다. 최근의 떠들썩 했던 여러 결과들은 충분히 견고한 기술에 바탕을 둔 것들이 아닙니다. 물론 소위 전문가들의 예상보다 훨씬 빨리 등장했던 신기술이 없는 것은 아닙니다. 그러나 전문가들이 예측했지만 아직도 불가능한 기술들도 있지요. 핵연료 자동차, 수중 도시, 화성 식민지, 주문형 아기, 신체 장기를 공급는 살아있는 좀비 공장 등이 그 예입니다.

또 로봇 과학자들이 인공지능의 위험에 대비하기 위한 안전장치를 만들지 않을리도 없습니다. 이를 위해 “로봇 원칙”이나 완전히 새로운 철학을 만들어야 하는 것도 아닙니다. 그저 믹서기, 전기톱, 난방장치, 자동차 등에 포함된 안전장치와 같이 상식에 기반하면 됩니다. 인공지능 시스템이 자신이 사용할 에너지를 위해 인간의 안전을 위협할 지 모른다는 생각은 곧 인간이 이런 ‘주의사항’을 만드는 속도보다 인공지능의 발전이 더 빠를 것이라는 가정에 기반합니다. 그러나 현실에서 인공지능의 발전 속도는 우스울정도로 느리며, 따라서 이들이 조금씩 발전함에 따라 이들을 제어할 원칙을 만드는 데 우리는 충분한 시간을 가지고 있습니다.

인공지능이 자신의 힘으로 이런 안전장치를 해제하게 될까요? 인공지능이 이를 원할 이유가 있을까요? 인공지능 디스토피아는 지능이라는 개념에 편협한 알파-메일 심리학이 덧붙은 결과입니다. 그들은 초 인공지능은 곧 주인의 자리를 빼앗고 세계를 정복할 것이라고 가정하고 있습니다. 그러나 지능이란 목표를 달성하기 위해 어떤 참신한 방법을 사용할 것인가에 대한 것이지, 지능이 반드시 스스로 어떤 목표를 가질 것이라고는 말할 수는 없습니다. 영리하다고 해서 반드시 무엇을 원하는 것은 아닙니다. 인류의 역사에서 때때로 등장했던 과대망상을 가진 폭군이나 연쇄살인범들은 자연선택에 의해 만들어진, 특정 영장류가 가진 테스토스테론 자극회로의 결과일 뿐, 지능의 필연적 특징이 아닙니다. 오늘날의 여러 기술-예언자들은 인공지능이 여성적 특징, 곧 문제를 해결할 충분한 능력을 가지고 있음에도 약자를 파괴하거나 문명을 지배할 욕구는 가지지 않는 그런 특성을 발전시킬 가능성은 고려하지 않는 듯 해 보입니다.

물론 우리는 어떤 악의를 가진 인간이 문명을 파괴할 로봇 군단을 만드는 것을 상상할 수 있습니다. 우리는 이런 가능성이 현실로 나타나지 않도록 대비해야 하며, 이는 상대적으로 쉬운 일일 것입니다. 이런 사악한 천재가 가능하기 위해서는 먼저 무의미한 대량학살에의 욕구와 기술적 천재성이 동시에 나타나야 합니다. 그는 또 자신에게 완벽한 충성을 바치면서 능력 또한 뛰어난 집단을 기르고 이끌며 이 단체의 보안 역시 유지해야 할 것입니다. 정부와 민간단체의 감시를 피해야하며 팀원의 배신을 막아야 하고, 어떤 실수도 있어서는 안되며, 불운 역시 피해야 합니다. 이론적으로는 가능하겠지만, 우리는 무시할 수 있을 정도로 그 가능성을 낮출 수 있습니다.

이런 공상과학적인 재난 상황을 배제한다면, 인공지능이 가져다 줄 유익을 상상하는 것은 매우 기쁜 일입니다. 안전, 여가, 자동운전 자동차 등에서 우리가 얻을 현실적 이익이 있고 철학적인 즐거움도 있을 것입니다. 예를 들어 마음에 대한 계산이론은 1인칭 주관적 시점에서의 의식의 존재를 아직 설명하지 못하고 있습니다. (물론 의식의 존재를 접속 및 보고가능한 정보로 보는 좋은 설명은 있습니다.) 한 가지 가능성은 충분히 복잡한 시스템은 주관성을 본질적으로 가진다는 것입니다. 나는 이 가설, 또는 다른 대안들 역시 검증가능하리라고는 생각하지 않았습니다. 그러나 자신의 상태를 관찰할 수 있으면서 동시에 과학적 질문을 던질 수 있는 인공지능 로봇이 스스로에게 ‘왜 자신이 주관적 경험을 느끼는지’를 묻는 것을 본다면 이는 매우 흥미로운 일일 것입니다.

(EDGE)

원문 보기