페이스북의 알고리듬 업데이트가 언론과 민주주의에 주는 영향
2019년 7월 31일  |  By:   |  IT, 정치  |  No Comment

페이스북의 뉴스피드 알고리듬은 이용자들이 플랫폼에서—웃긴 밈(meme)이나 친구가 남긴 댓글 등— 다양한 게시물 중 무엇을 보게 되는지를 결정합니다. 페이스북은 사람들의 정보 소비에 큰 영향을 끼치는 이 알고리듬을 정기적으로 업데이트합니다.

2020년 선거가 다가오며 2016년 대선 당시 러시아의 선거 개입이 다시 일어날지에 대한 걱정이 증가하고 있습니다. 이에 비해 페이스북의 알고리듬 업데이트가 선거에 어떤 영향을 끼칠지에 대해서는 충분한 토론이 이루어지지 않고 있죠.

신뢰할 만한 출처에서 전하는 사실에 근거한 보도는 러시아의 허위정보 캠페인의 대조적인 예죠. 소셜미디어 연구자와 교육자로서 저는 트럼프의 선거 준비 기간 이뤄진 페이스북 뉴스피드 알고리듬의 업데이트가 플랫폼 이용자가 신뢰할 만한 언론에서 정보를 얻는 것을 어렵게 했다는 증거를 발견했습니다.

정치 분야 종사자들은 페이스북이 2억 명 이상의 미국인과 20억 명 이상의 전 세계 이용자의 정보 소비에 게이트키퍼라는 점을 알고 있습니다. 그동안 플랫폼 내 여러 움직임과 남용은 선거 전 미국인들이 얼마나 많은 허위 정보와 선전에 노출되었는지에 대한 많은 걱정과 토론을 만들어냈죠. 페이스북의 알고리듬 변화가 뉴스 접근성과 민주주의에 끼치는 영향에 대해서는 아직 충분한 토론이 이루어지지 않았습니다.

2015년 중반, 페이스북은 독자들을 저널리즘과 언론으로부터 멀어지게 하는 대신 친구와 가족으로부터 더 많은 업데이트를 받게 하도록 알고리듬을 업데이트했습니다. 이는 이용자들이 친구가 올린 게시물을 놓치지 않게 하려는 노력으로 친근하게 표현됐죠. 하지만 소셜미디어 데이터는 해당 업데이트 후 페이스북 이용자들과 믿을만한 언론 출처 간 상호작용이 줄어들었다는 점을 보여줍니다.

2016년 선거 몇 달 전에도 페이스북은 친구와 가족의 게시물에 더 호의적이게 알고리듬을 업데이트했습니다. 이는 언론의 트래픽에 타격을 주었죠. 많은 언론사는 업데이트 이후 당사에서 올린 콘텐츠가 페이스북 이용자들에게 훨씬 덜 노출된다는 사실을 발견했죠.

제 연구는 2016년 선거 당시 주요 언론사에 대한 페이스북 인게이지먼트(engagement)를 살펴보았습니다. 연구의 발견은 페이스북의 알고리듬이 언론사에 대한 독자의 인게이지먼트를 줄어들게 했다는 다른 연구자의 결론과 일치합니다.

소셜미디어 데이터 추적 기업 크라우드탱글(CrowdTangle)의 데이터는 2016년 6월 페이스북이 알고리듬을 친구와 가족의 게시물에 더 우호적으로 업데이트하며 CNN, ABC, NBC, CBS, 폭스 뉴스, 뉴욕타임스, 워싱턴포스트가 페이스북에서 받는 트래픽이 눈에 띄게 줄어들었다는 것을 보여줍니다.

이는 알고리듬이 설계한 대로 작동했다는 뜻이죠. 하지만 저는 주요 미국 언론이 페이스북의 알고리듬으로 인해 억압받았다는 점을 걱정합니다. 유권자들의 2016년 대선에 대한 관심은 지난 20년 중에 가장 높았습니다. 이와 함께 거짓 정보가 만연했죠. 페이스북의 알고리듬 업데이트는 다양한 정치적 입장을 가진 주요 언론사가 신뢰할 만한 선거 뉴스와 보도를 사람들에게 전하는 데 어려운 시간을 보냈다는 점을 의미합니다.

페이스북은 선거가 벌어지기 전부터 알고리듬 업데이트가 가져올 문제점을 인지하고 있었습니다. 페이스북의 기술자 중 한 명은 2015년 7월 페이스북 알고리듬 변화가 가져올 영향에 대해 이미 경고했죠. 3달 후, 저커버그의 멘토, 로저 맥나미 또한 저커버그와 페이스북 경영진에게 플랫폼이 선거 관련 정보를 조작하는 데 이용되고 있다고 알렸습니다.

선거 이후, 버즈피드 뉴스 편집장 크레이그 실버맨의 연구는 가짜 선거 뉴스가 “진짜” 뉴스를 능가했다는 점을 찾아냈습니다. 2018년 후반 발표한 페이스북의 자체 성명은 매우 당파적인 뉴스 같은 자극적인 콘텐츠에 알고리듬이 우호적으로 작동한다는 문제를 보여줬습니다.

하버드 쇼렌스틴 센터에서 실시한 최근의 연구 역시 2018년 1월 페이스북이 실시한 알고리듬 업데이트로 인해 언론이 받는 페이스북의 트래픽이 계속해서 줄어들고 있다는 사실을 알려줍니다.

지금까지 페이스북의 알고리듬이 어떻게 작동하는지에 대한 조사는 연구자들의 내부 작동 알고리듬에 대한 접근이 제한되며 제대로 이루어지지 못했습니다. 이는 페이스북 뉴스피드의 변화를 조사하기에 충분하지 않습니다. 또한, 저는 알고리듬 업데이트의 이유를 이해하는 것도 중요하다고 생각합니다. 이에 더해 페이스북의 사업적 결정을 더 직접적으로 고려하고, 알고리듬 업데이트가 민주주의에 끼치는 영향에 대해서도 보다 연구해야 합니다.

페이스북은 최근 자신의 영향력을 이해하기 시작했습니다. 2019년 7월, 블룸버그 통신은 페이스북에 대한 오해의 소지를 만들어내는 게시물을 살피고 회사의 명성을 보호하기 위해 해당 게시물의 노출성을 낮추는 소프트웨어가 플랫폼에 배치됐다는 사실을 발견했습니다.

몇 명의 국제적인 법학자들은 민주주의를 보호하기 위해 알고리듬 조작이 선거 득표에 영향을 줄 가능성을 막기 위한 법의 필요성을 말하기 시작했습니다. 아직 페이스북의 알고리듬 업데이트가 정치적 의도에 의한 것이라는 증거는 없지만, 미래에 페이스북이 원한다면 언제든지 이를 바꿀 수 있다는 점은 상상하기 어렵지 않죠.

위와 같은 잠재적인 위협을 막기 위해 새로운 법은 선거 전 준비 기간의 알고리듬 업데이트를 제한해야 합니다. 이는 금융산업에서 회사의 주된 발표 전 마케팅이나 홍보가 인위적으로 주가에 영향을 주는 것을 막기 위해 “IR중단기간”을 갖는 것과 비슷하죠.

알고리듬 조작을 막기 위한 보호는 정치적인 영향력을 계속 확장하는 페이스북 경영진이나 이용자의 정보 접근 및 소비에 큰 영향을 끼칠 수 있는 다른 기업이 공중의 의견을 만들어내거나 선거 행동에 영향을 주기 위해 시스템을 사용하는 것을 막을 것입니다.

(더컨버세이션, Jennifer Grygiel)

원문링크