큰 힘에 따라오는 큰 약점
DNN 이 강력한 이유는 여러 층을 이용해 입력의 여러 다른 특징들을 대상의 분류에 이용할 수 있기 때문입니다. 비행기를 인식하는 AI 는 색깔, 재질, 배경 등을 우리 인간이 중요하게 여기는 날개 등에 못지 않게 중요하게 판단합니다. 하지만 이런 특성이 입력의 작은 변화에 대해 AI가 전혀 다른 결론을 내리게 만듭니다.
한 가지 해법은 AI에게 더 많은 데이터를 주는 것입니다. 특히, 문제가 되는 데이터들을 입력으로 주고 이를 수정하는 것입니다. 이런 ‘적대적 훈련’을 통해 하나의 신경망은 대상을 인식하고, 다른 신경망은 첫번째 신경망이 실수를 하도록 대상을 변형시키게 할 수 있습니다. 이 경우 적대적 예제는 DNN 의 훈련 데이터가 됩니다.
헨드릭스와 그의 동료들은 다양한 종류의 적대적 예제에 대해 그 DNN 이 얼마나 오류를 적게 내는지를 이 신경망의 성능 지표로 만드는 방법을 제안했습니다. 그러나 그들은 한 종류의 오류를 막도록 훈련하는 것이 다른 종류의 오류에 대한 저항력을 낮추는 경향이 있다고 말합니다. 런던에 위치한 구글 딥마인드의 푸쉬밋 콜리가 이끄는 연구팀은 DNN 이 오류에 대해 무결하게 만드는 시도를 하고 있습니다. 적대적 공격은 대체로 DNN이 잘못된 분류를 할 때까지 입력 이미지의 픽셀들의 색깔을 미묘하게 바꾸는 식으로 이루어집니다. 콜리의 연구팀은 튼튼한 DNN은 입력의 작은 변화에 대해 결론이 바뀌지 않도록, 그리고 이 성질이 신경망의 학습에 있어 수학적으로 만족되도록 만들어야 한다고 말합니다.
그러나 아직은 누구도 DNN 의 이런 문제를 해결하지 못하고 있습니다. 벤지오는 이 문제의 근본적인 이유로 DNN 이 어떤 특징이 중요한지를 판단하는 좋은 모델을 가지고 있지 못하기 때문이라고 말합니다. AI 가 도서관으로 판단하는 사자의 사진에 대해 사람들은 여전히 사자로 판단합니다. 이는 사람들은 동물이란 무엇인가에 대해, 곧 귀와 꼬리, 갈기와 같은 높은 수준의 이해를 가지고 있으기 때문이며, 이는 낮은 수준의 임의의 변형에 대해 사람이 결론을 바꾸지 않도록 만들어줍니다. “우리는 어떤 특징이 중요한 특징인지를 아는 사전 경험을 가지고 있습니다. 이는 세상의 구조에 대한 깊은 이해에서 나오는 것입니다.” 벤지오의 말입니다.
이를 해결하려는 한 가지 시도가 DNN 을 심볼릭 AI 와 결합하는 것입니다. 심볼릭 AI 는 기계학습이 인기를 끌기 이전에 AI 연구를 주도하던 패러다임입니다. 심볼릭 AI 에서 기계는 자신에게 주어진 세상의 작동 방식, 예를 들어 그 안에 어떤 대상들이 있으며 이 대상들이 서로 어떤 관계를 가지는지에 대한 규칙을 미리 가지고 있습니다. 뉴욕 대학의 심리학자인 게리 마커스와 같은 이들은 이런 하이브리드 AI 가 답이라고 생각합니다. “딥러닝이 당장 너무 유용한 결과를 내놓는 바람에 사람들은 장기적인 시야를 잃었습니다.” 마커스는 오늘날의 딥러닝 접근 방식에 대해 오랬동안 비판적인 입장을 취해왔습니다. 지난 5월 그는 캘리포니아 팔로알토에 로버스트 AI 라는 스타트업을 공동창업했습니다. 이들은 딥러닝과 규칙기반 AI 를 조합해 인간과 함께 안전하게 동작가능한 로봇을 개발하고 있습니다. 이들이 정확히 무엇을 하려는지는 아직 베일에 싸여 있습니다.
물론 규칙들이 DNN 에 더해진다고 하더라도, 이들의 한계는 학습하는 데이터의 수준에 따라 결정됩니다. 벤지오는 AI 객체는 자신이 탐사할 수 있는 복잡한 환경에서 학습해야 한다고 말합니다. 예를 들어, 대부분의 컴퓨터 비전 시스템은 맥주 캔이 원통형이라는 것을 알지 못합니다. 이는 시스템을 학습 시킬 때 2차원 이미지를 이용하기 때문입니다. 응우엔과 그의 동료들이 물체를 회전시켜 DNN 을 속일 수 있었던 이유도 바로 이것 때문입니다. 이 문제는 학습을 3차원 환경 – 실제 환경이든 시뮬레이션 환경이든 – 에서 함으로써 해결할 수 있습니다.
물론 AI 가 학습하는 방식 또한 바뀌어야 합니다. “객체가 자신의 세상에서 실험과 탐험 등을 통해 학습하는 방식으로 기계는 인과율을 배울 수 있습니다.” 벤지오의 말입니다. 또다른 딥러닝 선구자 중 한 명인 스위스 마노에 위치한 달레몰레 AI연구소의 유르겐 슈미트후버 역시 같은 생각을 가지고 있습니다. 그는 패턴 인식은 알리바바, 텐센트, 아마존, 페이스북, 구글 등의 세상에서 가장 가치있는 회사를 만들 정도로 매우 강력한 도구이지만, “더 강력한 흐름이 오고 있습니다”라고 말합니다. “이 흐름은 기계가 자신의 세상을 제어하고 자신의 행동을 통해 자신만의 데이터를 만드는 것입니다.”
이런 관점에서, 강화학습을 통해 인공의 환경에서 컴퓨터 게임을 이기는 AI는 이를 이미 수행하고 있는 셈입니다. 이들은 시행착오를 통해 목적을 달성할 때 까지 가능한 방식으로 입력을 바꿉니다. 하지만 실제 환경은 오늘날의 DNN 이 이용하는 시뮬레이션 환경이나 정리된 데이터들에 비해 훨씬 더 복잡합니다.
즉홍적으로 행동하는 로봇
UC 버클리의 한 실험실에서 로봇 팔이 여러 물건 들 사이를 움직이고 있습니다. 이 팔은 붉은 컵을 들어 옆의 파란 오븐 글러브를 몇 센티 오른쪽으로 밀어붙입니다. 컵을 두고 비어있는 플라스틱 스프레이 통을 집습니다. 그리고 잠시 후 꽤 묵직한 종이책을 집어 올립니다. 이런 행동을 쉬지 않고 며칠 동안 한 뒤, 로봇은 이 다양한 물건들에 대한 느낌을 가지기 시작했고, 이 물건들을 원하는 대로 움직일 수 있게 되었습니다.
이 로봇팔은 학습을 위해 딥러닝을 사용합니다. 물건들이 접시 위에 주어졌을 때 이를 집어 들고 여러 방향에서 관찰하고, 이 물건을 움직였을 때, 그리고 다른 물건과 부딪히게 했을 때 어떤 일이 일어나는지를 관찰합니다.
연구자들이 이 로봇 팔에 어떤 목적을 줄 경우, 예를 들어 빈 접시를 주고 물건들을 여기에 맞게 정리하라고 했을 때, 이 로봇은 즉홍적으로 움직이며 자신이 보지 못했던 물건을 이용합니다. 예를 들어, 스폰지를 이용해 물건을 테이블에서 치우는 식입니다. 또한 이 로봇 팔은 책상을 치우기 위해 플라스틱 물병으로 다른 물건들을 넘어뜨리는 것이, 그 물건들을 하나씩 집는 것보다 빠르다는 것을 알고 있습니다. “다른 기계 학습 기술에 비해 이 로봇 팔이 이룩한 성과는 매우 놀랍습니다.” 이 실험실에서 연구를 마치고 이제 스탠포드 대학에서 연구를 계속하고 있는 첼시 핀의 말입니다.
핀은 이런 종류의 학습을 통해 AI 가 더 복잡한 세상과 일반적인 세상을 배우게 할 수 있다고 말합니다. 만약 물병이나 스폰지를 사진으로만 학습한 경우, 다른 사진에서 이를 알아볼 수는 있습니다. 하지만 물병이나 스폰지가 무엇이고 어디에 쓰이는지는 이해할 수 없습니다. “실제로 사용해보지 않은 대상에 대한 이해는 얕을 수 밖에 없습니다.”
하지만 문제는 이런 종류의 학습에는 시간이 매우 많이 걸린다는 것입니다. 시뮬레이션 환경에서는 AI가 빛의 속도로 배울 수 있습니다. 2017년 딥마인드의 스스로 학습하는 게임 소프트웨어인 알파제로는 바둑에서 인간을 이기도록 학습된 후, 체스와 쇼기(일본식 체스의 일종)를 단 며칠 만에 학습했습니다. 그 며칠 동안 이 프로그램은 2천만판 이상을 시도했습니다.
AI 로봇은 이렇게 빠른 속도로 배울 수 없습니다. 버클리에 위치한 AI 로봇 회사인 앰바이덱스터러스의 공동창업자인 제프 말러는 딥러닝 기술의 거의 모든 주요 결과들은 엄청난 양의 데이터에 기반하고 있다고 말합니다. “로봇 하나로 천만개의 데이터를 얻기 위해서는 수년이 걸릴 겁니다.” 게다가 센서의 영점 조정과 하드웨어의 노화 때문에 데이터가 변하는 것도 고려해야 합니다.
바로 이점 때분에 대부분의 딥러닝을 이용한 로봇 연구는 가상 환경을 이용해 학습 속도를 높입니다. 조지아텍에서 로봇을 전공하는 데이비드 켄트는 “시뮬레이터의 성능이 학습 성능을 결정합니다”라고 말합니다. 시뮬레이터는 계속 개선되고 있고, 연구자들 또한 가상 세계에서 학습한 결과를 현실에 적용하는 방법의 효율을 높이고 있습니다. 물론 시뮬레이션은 현실 세계의 복잡도와는 비교할 수 없습니다.
핀은 이런 로봇을 이용한 학습이 인공적인 데이터를 이용한 학습보다 결국에는 더 유용하게 될 것이라 주장합니다. 그녀의 로봇 팔은 상대적으로 단순한 동작을 배우는 데도 며칠이 걸렸으나, 그 과정을 따로 감시할 필요는 없었습니다. “그저 한 번 씩 로봇을 확인하기만 하면 됩니다.” 그녀는 언젠가는 수많은 로봇이 자신의 도구를 가지고 세상을 학습하는 날이 오리라 생각합니다. 이는 가능한 일이며, 사실 인간은 이렇게 세상을 배우고 있습니다. “아기가 데이터를 페이스북에서 다운 받지는 않지요.” 슈미트후버의 말입니다.
더 적은 데이터를 통해 학습하기
아기는 단 몇 개의 데이터 만으로 새로운 대상을 배웁니다. 기린을 한 번도 보지 못한 아기도 한 두 번 본 뒤에는 기린을 구별할 수 있습니다. 이는 아기에게 다른 동물에 대한 경험이 있으며, 어떤 특징이 중요한 특징인지를 알기 때문입니다.
인공지능이 이런 종류의 능력을 가지게 하는 것을 전이 학습(transfer learning)이라고 합니다. 이는 앞서 배운 작업에서 유용한 지식을 다음 작업으로 전이한다는 뜻입니다. 한 가지 방법은 먼저 학습된 신경망을 그대로 새로운 작업의 시작점으로 사용하는 것입니다. 예를 들어, 한 종류의 동물을 구분하는 DNN 의 일부 – 예를 들어 기본적인 형태를 인식하는 부분 – 를 새로운 신경망의 일부로 넣어 기린을 인식하게 학습하는 것입니다.
전이 학습의 극단적인 형태는 소수의 데이터, 때로는 단 하나의 데이터만을 주고 새로운 신경망을 만들게 하는 것입니다. 이는 원샷, 혹은 퓨샷 러닝으로 알려져 있습니다. 이는 기학습된 DNN 에 크게 의존합니다. 예를 들어, 범죄자 데이터 베이스에 있는 얼굴을 구분하는 얼굴 인식 시스템을 만든다고 해봅시다. 가장 쉬운 방법은 이미 수백만 명의 얼굴(꼭 그 데이터베이스에 있는 얼굴일 필요는 없습니다)을 학습했기 때문에 코와 턱과 같은 특징이 학습된 DNN 을 사용하는 것입니다. 이 경우 단 한 장의 사진에서도 그 얼굴의 유용한 특징을 추출할 수 있습니다. 그리고 그 특징과 범죄자 데이터베이스의 사진에서 뽑은 특징을 비교해 가장 가까운 사진을 찾을 수 있습니다.
이렇게 미리 입력된 기억을 사용하는 식의 AI는 학습에 수많은 패턴을 필요로 하지 않으며, 따라서 로봇의 학습 속도 또한 높일 수 있습니다. 하지만 DNN 은 기존의 경험과 다른 대상을 접할 경우 여전히 한계를 드러냅니다. 이 경우 기존의 신경망을 얼마나 사용할 수 있을지는 확실치 않습니다.
가장 성공적인 AI 시스템인 딥마인드의 알파제로 마저도 극히 좁은 영역의 전문성을 가지고 있습니다. 알파제고의 알고리듬은 바둑과 체스를 모두 둘 수 있도록 학습되었지만, 둘을 동시에 둘 수는 없습니다. 체스에서 승리하기 위해 모델을 재학습할 경우 바둑에서 얻은 경험은 모두 사라집니다. “사람의 경우와 비교해보면, 아주 우스운 일이죠.” 핀의 말입니다. 사람은 자신이 배운 것을 그렇게 쉽게 잊지 않습니다.
학습법을 학습하기
알파제로의 성공은 단순히 효울적인 강화학습의 성공만은 아닙니다. 알파제로에는 다음 단계를 찾기 위해 몬테카를로 트리 서치의 한 변형된 기술 또한 쓰였습니다. 이 말은 알파제로는 바둑이라는 환경에서 어떻게 학습하는 것이 최선인지에 대해 인간의 도움을 받은 셈이라는 것입니다. 콜레는 AI 의 다음 단계가 인간이 아닌 DNN 이 직접 자신에게 필요한 알고리듬을 짜게 하는 것이라 말합니다.
그는 기본적인 패턴 매칭에 추론 능력을 더할 경우 AI 가 자신이 잘 하는 영역 바깥의 문제 또한 다루게 될 수 있을 것이라 주장합니다. 컴퓨터 과학자들은 수년 동안 컴퓨터가 스스로 프로그램을 짜게 만드는 방법을 연구해왔습니다. 클로에는 여기에 인간의 추상적 정신과 유사한 DNN 으로 이루어진 딥러닝 기술을 더할 수 있다고 생각합니다.
예를 들어 캘리포니아 먼로 파크에 있는 페이스북 AI 연구소 소속의 크리스텐 그라우만은 로봇이 새로운 환경에서 가장 나은 탐사방법을 찾을 수 있게하는 방법을 찾고 있습니다. 이는 새로운 상황에 처했을 때 어느 방향으로 가야할 것인지, 그리고 어떤 물체를 어떻게 조작해야 가장 잘 이해할 수 있을지와 같은 질문을 말합니다. 이는 AI가 어느 방향을 택했을 때 가장 유용한 데이터를 얻을 수 있느냐와 같은 질문입니다.
이 분야의 연구자들은 자신들이 딥러닝의 단점을 해결하고 있다고 말하지만, 또한 여전히 아직도 문제가 많다는 점을 인정합니다. 던 송은 딥러닝 기술에 대한 이론이 많지 않기 때문에 “무언가가 작동하지 않으면, 왜 그런지를 파악하기가 쉽지 않습니다”라고 말합니다. “모든 분야가 여전히 경험칙의 수준에 머물고 있습니다. 여러 시도를 해볼 수 밖에 없습니다.”
비록 과학자들이 DNN 의 한계와 막대한 데이터 의존성을 이해하지만 적어도 한 동안은 이 기술에 의존할 수 밖에 없을듯 합니다. 물론 지난10년 동안 엄청난 규모의 컴퓨터 자원의 뒷받침과 함께 뛰어난 성능을 보인 이 신경망이 현실에서도 그런 성능을 보일지는 아직 알 수 없습니다. “누구도 이를 어떻게 개선할지를 알지 못하는 상황입니다.” 클룬의 말입니다.
(네이처, Douglas Heaven)
뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 글에 관한 해설을 쓰고…
트럼프 대통령 당선인이 2기 행정부 인선을 속속 발표하고 있습니다. 정치적으로 논란이 불가피한 인물도 다수 지명된…
* 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 글에 관한 해설을…
* 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 글에 관한 해설을…
트럼프 2기 행정부 인사가 속속 발표되고 있습니다. 대부분 트럼프에게 절대적인 충성을 보여준 이들로, 기존 공화당원들…