탐욕스럽고, 불안정하며, 이해하기 어렵고, 피상적인 딥러닝
2019년 2월 27일  |  By:   |  IT, 칼럼  |  No Comment

구글 최고 경영자 선다 피차이는 AI(인공지능)는 “전기나 불보다 더 심오하다.”라고 말해왔습니다. 구글 브레인을 설립하고, AI 스타트업에 투자하고 있는 앤드류 옹은 “보통 사람이 1초보다 짧은 시간 동안 하는 생각에 기반한 두뇌 작업은 지금이나 가까운 미래에 AI로 자동화될 수 있을 것입니다.”라고 썼습니다

그들의 열정은 이해할 수 있습니다. 몇십 년의 좌절 후 지금까지 AI 분야에서는 놀라운 진보가 일어났습니다. 오늘날 우리는 알렉사 같은 음성 인식 개인 비서에게 “텔레비전 밴드의 음악을 틀어달라.”고 말하거나, 페이스북이 자동으로 달아주는 사진 태그에 의존하죠; 구글 번역은 종종 인간 번역가만큼 정확합니다. 지난 5년 동안, 몇십억 달러의 연구 기금과 벤처 자금이 AI 분야로 흘러 들어갔습니다; AI는 매사추세츠공과대학교와 스탠퍼드 대학교의 컴퓨터 공학 전공에서 가장 인기가 많은 수업입니다. 실리콘 밸리의 최근 채용된 AI 전문가는 50만 달러의 급여와 주식을 받습니다.

하지만 똑똑한 기계는 하지 못해도, 사람은 빠르게 처리할 수 있는 일들이 아직 많이 남아 있습니다. 자연어는 딥러닝보다 뛰어납니다; 소가 캐틀 그리드 앞에서 갑자기 멈춰서는 것처럼, 인공지능은 새로운 상황에 잘 대처하지 못하죠. 이 단점은 조만간 해결될 것 같지 않습니다. 이미 단점이 존재한다는 사실을 인지한 순간 계속 이러한 한계에 대해 생각할 수밖에 없습니다. 인공지능 분야의 지배적인 기술이 된 딥러닝은 AI가 추상적 추론이나 세계에 대한 일반화를 하도록 만들지 못합니다. 현재 수준에서는 AI가 일반 사람들이 수행하는 모든 작업을 자동화시키기는 어려워 보입니다.

왜 AI 가 어떤 작업에서는 뛰어난 수행 능력을 보여주는 데 반해 다른 작업에서는 제대로 역할을 하지 못하는지를 보기 위해서는 딥러닝이 어떻게 작동하는지를 살펴보는 것이 도움이 됩니다. 딥러닝은 수학입니다: 컴퓨터가 신경망 네트워크를 이용해서 패턴을 분류하는 법을 배우는 통계적 방법론이죠. 우리 뇌의 뉴런과 비슷하게 여기에는 입력과 출력이 있습니다; 많은 수의 노드(node) 간 많은 연결을 포함한 여러 개의 중간층을 가지고 있는 네트워크는 “딥(deep: 깊은)”하다고 여겨지죠. 딥러닝은 노드 간 수학적 가중치를 조정해 입력값이 적절한 출력값을 가지도록 하는 역전파 알고리듬을 이용합니다. 음성 인식에서 음소 “c-a-t”은 “cat”이라는 단어를 만듭니다; 영상 인식에서 고양이 사진이 “개”로 표시되어서는 안 되죠. “qui canem et faelem ut deos colunt”란 문장은 “개와 고양이를 신처럼 숭배하는 사람들”로 번역되어야 합니다. 미리 공들여 표시해놓은 수백만, 수십억의 예를 통해 딥러닝 신경망이 음소, 사진, 라틴어와 영어와의 관계를 인식하도록 “지도(supervised)” 됩니다.

딥러닝의 진보는 패턴 인지의 결과물입니다: 신경망은 사물의 종류(classes of things)를 기억하고 다음번에 같은 사물을 맞닥뜨렸을 때 이를 분류합니다. 하지만 인지 분야에서 흥미로운 문제 대부분은 분류 작업과 관련되어 있지 않습니다. “사람들은 100배 더 많은 계층과 1000배 더 많은 데이터가 있다면, 신경망이 사람이 하는 모든 작업을 대체할 수 있다고 순진하게 믿죠.” 구글 연구자 프랑소와 숄레는 이렇게 말합니다. “이는 사실이 아닙니다.”

뉴욕대학교 인지 심리학 교수이자 우버의 AI 연구소 책임자를 잠시 맡았던 게리 마커스는 딥러닝을 비판적으로 평가한 에세이 3부작을 최근 출간했습니다. 마커스는 딥러닝이 “일반적인 해법이 아닌 많은 도구 중 하나”라고 믿습니다. 또한, 그는 AI가 패턴 인식이 풀지 못하는 여러 문제를 덮어두고 새로운 접근법 없이 벽을 향해 달려가고 있다고 걱정합니다. 이 모든 주장이 “틀렸다”고 무시하는 페이스북의 인공지능 연구 책임자 얀 러쿤과, 딥러닝이 곧 맞이할 장애물의 “증거”가 없다고 보는 역전파 알고리듬의 아버지 토론토대학교 제프리 힌튼교수를 제외하고, AI 분야의 지도자들 대부분은 마커스의 관점을 조용히 공유하고 있습니다.

마커스 같은 회의론자에 따르면 딥러닝은 탐욕스럽고, 불안정하며, 이해하기 어렵고, 피상적입니다. 많은 훈련 데이터가 필요하다는 점에서 딥러닝 체계는 탐욕스럽습니다. 또한, 훈련 단계에서 사용된 시나리오와 다른 시나리오를 직면할 경우 상황에 맞게 이를 고려해 변형하지 못한다는 점에서 불안하죠. 신경망의 매개 변수는 수학적 지리 안에서의 가중치에 관한 해석만이 가능합니다. 디버깅이 가능한 정형화된 코드를 가지고 있는 전통적인 프로그램과는 다르다는 점에서 불투명하죠. 다시 말해, 딥러닝의 출력은 블랙박스를 통해 산출되고, 설명될 수 없습니다. 당연히 신뢰성과 편견에 의심을 불러일으킬 수밖에 없죠. 마지막으로 딥러닝은 적은 양의 지식에 기초해 프로그램화되어 있고, 세계와 인간 심리에 대한 상식을 가지고 있지 않다는 점에서 피상적입니다.

이러한 한계는 AI를 과장해 옹호하는 사람들이 상상하는 것보다 자동화가 달성하기 힘들다는 점을 의미합니다. “수백만 마일을 운전할 수 있는 자율주행차는 결국 어느 시점에 경험해보지 못했던 무언가를 마주할 것입니다.”라고 ‘마스터 알고리듬’의 저자이자 워싱턴대학교 컴퓨터과학과 교수 페드로 도밍고스는 설명합니다. “로봇 제어에 대해서 생각해보세요: 로봇은 병을 드는 법을 배울 수 있습니다. 하지만 만약 로봇이 컵을 들어야 한다면 어떨까요? 로봇은 처음부터 다시 시작해야 하죠.” 1월, 페이스북은 문자에 기반을 둔 가상 비서 엠(M)을 포기했습니다. 페이스북은 사람이 엠의 딥러닝 체계를 보충하고 훈련하게끔 했지만, 엠은 여전히 자연적으로 유용한 제안을 제공하거나, 언어를 사용하지는 못했습니다.

무엇이 문제일까요? “우리는 기계가 사용하는 어떤 것보다 나은 러닝 알고리듬을 머릿속에 가지고 있습니다.” 도밍고스는 말합니다. 회의론자들은 더 좋은 머신러닝 방법에 투자할 필요가 있다고 단언합니다. 마커스는 AI 문제의 해결책으로 혼합주의(syncretism)를 이야기합니다: 딥러닝에 미리 학습된 데이터에 많이 의존하지 않는 비지도 학습 기술과 딥러닝이 떠오르기 전 AI를 지배했던 세계를 설명하는 옛날 방식인 논리적인 규칙을 결합하는 것이죠. 마커스는 가장 좋은 지능 모델은 우리 자신이라고 주장합니다. 또한, 여러 다른 방법으로 생각할 수 있는 사람의 강점에 관해 이야기하죠. 어린아이들은 많은 예 없이도 언어의 일반적인 규칙을 배울 수 있는 선천적인 능력을 갖추고 태어납니다. “우리는 세계에는 인과관계가 있고, 전체는 부분으로 구성되어 있으며, 세계가 공간과 물질로 구성되어 있고, 이는 시간과 공간 속에서 계속된다는 점을 안 채로 태어납니다.” 그는 말합니다. “어떤 기계도 역전파 알고리듬을 통해 위 사실을 배울 수 없습니다.”

다른 연구자들은 어떻게 생각할까요? “우리는 1950년대 이래로 똑같은 (머신 러닝을 위한) 기본적인 패러다임을 사용해왔습니다.” 페드로 도밍고스는 이렇게 말합니다. 숄레는 “결국 가장 중요한 사실은 새로운 아이디어가 필요할 것이라는 점입니다.”라고 말하며 자동으로 다른 프로그램을 만들어내는 프로그램 합성에서 영감을 찾고 있습니다. 힌튼의 현재 연구는 딥러닝을 위한 역전파 알고리듬을 보존하면서도 알고르듬의 한계를 다루는 “캡슐”을 탐색합니다.

“AI에는 아직 완전히 해결되지 않은 핵심적인 문제가 많이 있습니다.” 숄레는 말합니다, “심지어 아직 밝혀지지 않은 문제도요” 우리는 이러한 질문에 대답해야만 합니다. 화장실 청소나 포르노물 분류같이 많은 사람이 하고 싶어 하지 않는 일들이 있기 때문입니다. 또는, 병을 치료할 약을 찾아내는 것처럼 기계가 더 잘할 수 있는 일도 있습니다. 더 많게는: 우리가 아직 상상하지 못하는 사람이 전혀 할 수 없는 일들이 있을 수도 있죠.

(와이어드, Jason Pontin)

원문링크