이유를 설명하지 못하는 인공지능
2018년 5월 23일  |  By:   |  IT  |  2 Comments

인공지능으로 가는 길고 불안정한 여정이 드디어 갈피를 잡기 힘든 지점에 도달했습니다. 포커 게임이나 군중 속에서 얼굴을 인식하는 일 같이 사람만이 할 수 있다고 여겨졌던 작업을 인공지능은 사람보다 더 잘 해냈습니다. 하지만 동시에 인공지능을 이용한 자율주행차가 보행자나 푯말을 들이받기도 했죠. 인공지능의 신뢰성에 의문이 들고 있습니다.

인공지능 기술은 분명 급속히 발전하고 있지만, 동시에 잇단 차질이 빚어지는 것도 사실입니다. 이런 급격한 환경 변화 속에서 우리는 인간의 지능을 구성하는 중요한 요소 하나를 놓치고 있습니다. 원인과 결과를 이해하는 능력이 바로 그것입니다.

단순히 표현하자면 오늘날 머신러닝 프로그램은 수탉이 해를 뜨게 하는 것인지, 아니면 그 반대인지를 알지 못합니다. 또한, 분석하는 데이터의 양과 상관없이 기계는 사람이 직감적으로 알 수 있는 것들을 이해하지 못하죠. “왜 이런 일이 벌어졌는가?” “내가 다르게 행동했다면 어떻게 됐을까?” 같은 물음은 사람의 인지 발달에서 중요한 질문들입니다. 기계가 지금까지 놓치고 있는 부분이죠.

약국이 찰리라고 불리는 머신러닝 프로그램에 가격 책정을 맡기기로 했다고 가정해봅시다. 약국의 지난 기록들을 검토한 뒤 프로그램은 치약 가격의 변화가 판매량과 관련이 없다는 것을 발견했습니다. 따라서 더 많은 수익을 올릴 수 있도록 가격을 올리라고 추천합니다. 한 달 뒤, 치실 같은 다른 품목과 함께 치약 판매량은 떨어졌습니다. 찰리가 무엇을 잘못한 것일까요?

찰리는 기존에 일하던 (사람인) 매니저가 오직 경쟁이 있을 때만 가격을 다양화했던 것을 이해하지 못했습니다. 찰리가 일방적으로 가격을 올리자, 치약 가격에 민감한 소비자들은 다른 곳에서 물품을 샀죠. 이 예는 과거 기록 데이터 자체가 우리에게 데이터가 그렇게 나온 원인을 알려주지 않지만, 인과관계는 중요하다는 것을 보여줍니다.

머신러닝 시스템은 데이터 패턴 분석에서 놀라운 진전을 만들어냈습니다. 하지만 이는 인공지능으로서는 어렵지 않게 달성할 수 있는 목표였죠. 더 높은 목표 달성을 위해서 인공지능은 “인과의 사다리”를 넘어야 합니다. 사다리의 계단은 세 단계의 추론 과정을 반영하고 있습니다.

첫 번째 단계는 “연관성”입니다. 파블로프의 개가 종소리와 음식 간의 연관성을 배운 사례가 이 단계에 해당합니다. 그다음 단계는 “조정”입니다. “내가 만일 종을 울리면 혹은 치약 가격을 올리면 무슨 일이 벌어지는가?”와 같은 질문이 이와 관련되어 있죠. 조정은 관찰과는 다릅니다. 가격을 일방적으로 인상하는 것은 과거에 무엇이 일어났는지 살피는 것과는 차이가 있죠. 가장 높은 단계는 “조건법적 서술”입니다. 이는 누군가의 행동을 반영하거나 다른 시나리오를 평가해 결과를 상상해볼 수 있는 능력이죠. 이 단계가 책임성, 믿음, 비난, 자기 계발 등을 평가하고 대화하기 위해서 기계가 도달해야만 하는 지점입니다. 자율주행차가 이 능력을 갖췄다고 생각해보세요. 사고 발생 이후 기계의 중앙처리장치는 스스로 이런 질문을 하겠죠. ‘내가 술에 취한 보행자에게 경적을 울리지 않았다면 무슨 일이 벌어졌었을까?’

더 많은 데이터가 있는 가장 높은 단계에 도달하기 위해 기계는 인과적 요소를 기반으로 패턴을 분석할 수 있어야 합니다. 본질에서는 원인과 결과의 수학이죠. 단순한 예를 들어보겠습니다. “술은 사람들의 판단을 흐리게 하고, 예상치 못한 방식으로 움직이게 합니다.” 우리는 이를 인과도표로 부호화할 수 있습니다. 화살표는 가능한 원인의 관계를 나타내죠: 술 >> 흐린 판단 >> 일정하지 않은 움직임. 이런 도표는 차가 특정 보행자가 자동차 경적에 다르게 반응할 것을 예측할 수 있게 해주는 알고리즘을 만드는 시작이라고 볼 수 있습니다. 이를 통해 우리는 차에게 “왜 경적을 울렸는지”와 같은 과정에 대한 설명을 요구할 수 있죠.

현재 머신러닝 시스템은 체스 게임처럼 규칙을 어길 수 없는 다소 국한된 분야에서만 더 높은 단계에 도달할 수 있습니다. 이 분야 밖에서 여전히 기계는 불안정하고 실수를 하기 쉽습니다. 하지만 인과 모델을 통해 기계는 과거 시도하지 않았던 행동의 결과를 예측하고 반영할 수 있고, 새로운 환경에서 습득된 능력을 전환해 사용할 수 있습니다.

인과 모델은 1980년대의 인공지능 작업에서 발전해왔고, 건강과 사회과학 분야로 퍼져나갔습니다. 인과 모델은 (사다리에서) 다소 높은 단계의 계산을 하며 종종 통계적 역설을 설명하기도 했죠. 머신러닝 학자들이 더 설명할 수 있고, 반응하는 시스템을 찾기 시작하면서 이는 다시 원점으로 돌아왔습니다. 구글과 페이스북의 연구자들은 온라인 광고가 판매된 상품 간에 차이를 만드는지를 알아내기 위해 인과 모델을 연구하죠. 이는 사다리의 최종 단계인 조건법적 질문에 해당합니다.

이건 시작에 불과합니다. 연구자들이 데이터와 인과적 추론을 결합한다면 인공지능 분야에서는 작은 혁명이 일어날 것입니다. 기계는 기존에 보지 못한 행동을 계획하고, 그들이 배운 것을 새로운 환경에 응용하고, 사람이 원인과 결과를 말하는 방식으로 그들의 행동을 설명하겠죠.

(월스트리트저널, Judea Pearl, Dana Mackenzie)

원문보기

  • Wonjin Cho

    알파고 이후로 이미 AI가 인간보다 더 인과관계를 더 잘 알아낼 수 있다는 걸 증명해낸거죠. 물론 실제세상은 요인이 바둑판보다 훨씬 많으니 AI로선 뭐가 똥인지 된장인지 모르겠지만 곧 인간이상으로 극복해낼듯합니다. 오히려 AI가 인간의 불합리한 기준에 부합하도록 만드는게 더 어렵겠죠. 왜 그렇게 하는지 알 수 없겠죠.

  • ecosang

    알파고는 인과관계가 아닌 계산이죠. 딥러닝은 예측에 가깝죠, 인과관계에 대한 설명이 아닌.