내가 사회참여 (society-in-the-loop, SITL) 기계 학습이라는 용어를 처음 들은 것은 이야드 라완(Iyad Rahwan)으로 부터입니다. 그는 최근 사이언스 지에 철학자들이 “트롤리 문제”라 부르는 전통적인 문제의 현대적 형태인 자율주행 자동차의 판단 문제를 해결할 수 있는 방법을 발표했습니다. 그는 대중들이 중요하게 여기는 가치와 우선순위를 기계로 하여금 학습하게 함으로써 인공지능이 그 사회가 가진 도덕과 정의에 기초해 판단하게 만들 수 있다고 주장했습니다. 또 사람들은 그 인공지능 시스템에 여러가지 윤리적인 질문들을 던지고 그 시스템이 어떻게 답하는지를 관찰함으로써 이를 검증할 수 있습니다.
사회참여(SITL)는 미디어 랩의 카틱 디나카가 연구해 온 분야이며 최근 인공지능 연구에서 중요한 주제로 떠오른 인간참여(human-in-the-loop, HITL) 기계학습을 확장한 개념입니다.
일반적인 기계학습에서 데이터 과학자들은 거대한 양의 데이터를 다룹니다. 이들이 하는 일은 어떤 데이터를 사용할 것인지, 각 데이터에 어떤 가중치를 부여할 것인지, 그리고 어떤 종류의 학습 알고리즘을 사용하며 어떤 변수를 결정할 것인지를 결정하는 것입니다. 이를 통해 인공지능이 엄밀하고 효율적으로 동작하며, 올바른 판단을 내릴 뿐 아니라 정확한 통찰력을 이끌어내게 만듭니다. 이 분야가 가진 한 가지 문제는, 위의 작업이 아직은 일반인들에게는 어렵기 때문에, 이 작업을 수행하는 이들이 이들이 풀고자 하는 문제의 전문가들이 아니라 데이터 과학자, 곧 기계학습의 전문가들이며, 각 분야의 전문가들은 때로 완성된 모델을 검증하는 단계에서나 참여할 수 있습니다. 기계학습은 그 특성상 데이터가 가진 오류나 편향성에 매우 민감합니다. 예를 들어 검문 수색을 특별히 많이 하는 지역이 있다면, 당연히 데이터는 그 지역의 범죄율이 더 높다고 이야기할 것입니다.
인간참여 기계학습은 처음 인공지능 시스템을 학습시키는 단계에서부터 그 분야의 전문가를 참여시키는 것을 말합니다. 즉, 이 개념의 핵심은 데이터만 의존하는 대신 인간이 가진 그 데이터에 대한 견해 역시 반영하자는 것입니다. 카틱은 이 과정을 ‘렌징(lensing)’이라고 부릅니다. 곧, 기계를 훈련시키기 위해 전문가의 눈(렌즈)을 통과 시켜 그의 견해와 원래의 데이터를 모두 사용한다는 것입니다. 이 방법은 확률적 프로그래밍과 기계학습의 민주화에 모두 응용될 수 있을 것으로 생각합니다.
최근 철학자, 성직자, 그리고 인공지능 전문가들이 모인 회의에서 우리는 기계가 판사의 역할을 대신하게될 가능성을 논의했습니다. 인공지능은 많은 데이터들을 가진 사안에 대해 매우 정밀한 평가를 내릴 수 있으며, 따라서 보석금이나 가석방과 같은 문제에 있어 인공지능이 인간보다 더 정확한 판결을 내릴 수 있으리라는 생각은 매우 합리적입니다. 특히 보석금이나 가석방 문제의 경우 인간이 기실 그렇게 공정하지 못하다는 것은 잘 알려져 있습니다. 예를 들어, 최근 한 연구는 가석방 승인률이 점심 식사 전과 후에 크게 달라짐을 보였습니다. (이코노미스트에서 이 연구를 소개한 기사에는 이 연구에 대한 비판 역시 포함되어있으며 이 연구의 저자들은 그 비판에 또한 답했습니다.)
토론 과정에서 누군가가 보석금이나 가석방과 같은 문제에 대해 판사를 인공지능으로 대체할 것을 제안했을 때, 철학자와 성직자들은 분명히 그 제안이 공리주의적인 측면에서, 특히 사회를 위해 옳은 것으로 보이지만, 그럼에도 불구하고 판결을 인간이 내려야 한다는 것은 매우 중요하며, 어떤 의미에서는 이 사실이 옳은 판단을 내리는 것보다 더 중요하다고 지적했습니다. 이런 문제를 공리적으로 접근하는 것인 옳은 방식인지는 차치하고라도, 일반 대중들이 인공지능을 받아들이게 만드는 것이 더 중요하다는 뜻입니다.
이 문제를 해결할 수 있는 두 가지 접근 방식이 있습니다. 첫 번 째 방법이 인간참여(HITL) 방식으로 인공지능을 이용해 인간 판사의 능력을 확장시키고 판단을 돕도록 만드는 것입니다. 아마 대중들은 이 방법을 선호할 것입니다. 그러나 한편으로는, 의약분야나 항공분야와 같은 여러 분야에서 때로 인간은 자신의 잘못된 판단을 믿은 나머지 컴퓨터의 제안을 무시했던 전력이 있습니다. 이는 어떤 경우에는 인간이 기계에 간섭하는 것을 막아야 함을 알려줍니다. 어쩌면 기계가 전체 시스템을 운영하도록 하고 인간에게는 인간이 만족할 만한 정보만을 보여주게 만들 수도 있을 것입니다.
두 번째 방법이 바로 앞서 이야기한 사회참여(SITL) 방식을 이용해 대중이 인공지능을 직접 훈련시키도록 만드는 것입니다. 이를 통해 사람들은 그 인공지능이 개인의 다양한 가치를 공평하게 대변한다고 믿을 수 있게 됩니다. 이는 전혀 새로운 것이 아닙니다. 예를 들어, 이상적인 정부란 모든 시민이 충분한 정보를 가지고 참여함으로써 정부가 자신의 뜻을 잘 반영하리라 믿고 자신의 권력을 정부로 이양할 뿐 아니라 정부의 결정에 자신도 책임을 지는 그런 정부를 의미합니다. 즉, 모든 시민에 의해 훈련되고 또한 그들이 신뢰할 수 있을 정도로 투명하게 유지되기 때문에, 그들의 지지를 받는 동시에 그들의 대리인이 될 수 있는 그런 이상적인 인공지능을 만들 수 있는 방법이 있을 것입니다. 정부는 이 인공지능과 경쟁해야 할 것입니다. 한편, 우리가 바로 읽고 이해할 수 있는 전통적인 소프트웨어와 달리 기계학습에 의한 인공지능은 마치 인간의 뇌 처럼, 그 내부 과정을 들여다보고 어떤 일이 일어날지를 예측하는 것이 쉽지 않습니다. 따라서 일반인들이 그 인공지능의 행동과 가치체계를 검증하고 확인할 수 있는 방법이 있어야 할 것입니다.
만약 우리가 대중의 의견을 수렴하는 방법을 개발하고 이를 통해 대중이 이 인공지능의 궁극적 창조자이자 지배자가 되도록 만들 수 있다면, 이 인공지능은 새롭게 등장할 사법적 문제 역시 해결할 수 있을 것입니다. 바로, 기계가 저지르는 범죄에 대한 판단입니다. 예를 들어 사람들이 자율주행 자동차의 판단이 바로 자신들이 훈련시킨 인공지능에 의한 판단이라고 생각한다면 자율주행 자동차의 판단에 의해 일어난 사고에 자신들의 책임이 있다고 느끼게 될 것이며 이는 자율주행 자동차를 생산하는 회사의 책임 문제에 우리가 더 이상 매달리지 않게 만들어줄 것입니다.
어떻게 일반 대중으로 하여금 인공지능을 훈련시키고 검증하고 지배하게 만들 것인지는 미래의 인공지능이 생명을 살리고 정의를 구현하게 만들도록 하기 위해 가장 중요하게 여겨야할 문제중 하나일 것입니다. 단순히 인공지능이 윤리적인 판단을 내리도록 훈련시키는 방법을 찾는 것을 넘어, 기계학습의 도구를 모든 이들이 사용가능할 수 있도록 만들고, 보다 열린, 통합적인 사회적 논의를 통해 인공지능의 발전으로 만들어지는 권력을 모두가 향유할 수 있게 만들어야 합니다.
(조이 이토 블로그)
* 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 글에 관한 해설을…
트럼프 2기 행정부 인사가 속속 발표되고 있습니다. 대부분 트럼프에게 절대적인 충성을 보여준 이들로, 기존 공화당원들…
* 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 글에 관한 해설을…
선거가 끝난 지 일주일이 다 돼 가고 있습니다. 역사적인 승리를 거둔 트럼프는 2기 행정부 출범을…
* 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 글에 관한 해설을…
미국 대선이 트럼프 대통령의 승리로 마무리됐습니다. 트럼프의 승리 요인, 해리스의 패배 요인을 분석하는 기사와 칼럼이…
View Comments
원문 출처좀 부탁드립니다
추가했습니다. 감사합니다. :)