[뉴페@스프] AI가 만들어낸 이미지의 위협, 과연 막을 수 있을까
2023년 7월 25일  |  By:   |  SBS 프리미엄  |  No Comment

* 뉴스페퍼민트는 SBS의 콘텐츠 플랫폼 스브스프리미엄(스프)에 뉴욕타임스 칼럼을 한 편씩 선정해 번역하고, 그에 관한 해설을 쓰고 있습니다. 그 가운데 저희가 쓴 해설을 스프와 시차를 두고 소개합니다. 스브스프리미엄에서는 뉴스페퍼민트의 해설과 함께 칼럼 번역도 읽어보실 수 있습니다.

** 오늘 소개하는 글은 6월 5일 스프에 쓴 글입니다.


인간은 자신이 이해하지 못하는 새로운 기술에 늘 두려움을 느꼈습니다. 그 기술이 자신을 위협하는 존재가 될 때 두려움은 배가 됩니다. 메리 셸리의 프랑켄슈타인이 출간된 것은 기계가 인간을 대체할 수 있다는 두려움이 팽배하던 러다이트 운동으로부터 겨우 몇 년이 지난 시점이었습니다. 과거 신비주의와 마법의 시대에는 골렘이 두려움의 대상이었습니다.

이런 의미에서 지난 몇 년간 급격하게 발전한 인공지능은 인간의 가장 근본적인 특징인 지능을 흉내 낸다는 점에서 그 자체로 공포의 대상일 수밖에 없습니다. 무엇보다도 최근 가장 많은 관심을 받는 거대언어모델(LLM)은 인간과 거의 비슷한 수준으로 언어를 사용한다는 점에서 사람들의 두려움을 더욱 자극하고 있습니다. 언어를 통해 인간은 서로 생각을 나누고 전달할 수 있습니다. 그래서 언어야말로 인간이 다른 종과 달리 문명을 만들 수 있게 만든 인간의 가장 구별되는 능력이라 많은 이들이 생각합니다.

인공지능의 급격한 발전은 인공지능이 언젠가 스스로 의지를 가지게 되면, 예를 들어 지구가 직면한 심각한 기후 위기로부터 스스로를 보호하기 위해 인류를 멸종시키려 할지 모른다는 두려움으로도 이어집니다. 그러나 이런 우려는 인공지능 기술이 아직은 인간이 자신의 특정한 목표를 위해 사용하는 도구일 뿐이라는 점에서 현실과는 맞지 않습니다.

 

인공지능이 가져온 또 다른 위협

하지만 인공지능이 인간의 문명을 위협할 가능성은 전혀 다른 곳에서 나타납니다. 바로 생성 AI가 만들어 내는 사실이 아닌 이야기와 이미지들입니다. 인간의 문명은 현실을 모사한 언어와 이미지에 의해 지탱되고 있기에 이는 큰 문제가 될 수 있습니다. 예를 들어, 사실이 아닌 내용을 사실처럼 그럴듯하게 이야기하는 언어모델이나 현실과는 전혀 다른 내용을 실제 사진으로 만들어 내는 이미지 모델은 매우 쉽게 가짜뉴스를 만들어 냅니다.

물론 과거에도 허구와 조작된 이미지는 존재했습니다. 그러나 이들을 만들기 위해서는 상당한 시간과 노력이 필요했기에 사람들은 일상에서는 이를 걱정할 필요가 없었고, 심각한 경우에는 이들이 어떤 목적을 위해 조작된 것임을 짐작할 수 있는 감각을 키울 수 있었습니다. 하지만 생성 AI는 비교할 수 없이 적은 비용으로 거의 구별이 불가능한 가짜 현실을 무한정 만들어 냅니다.

이런 기술은 빠르게 대중화됐고, 기술이 가진 본래 속성상 이를 막거나 되돌리는 것은 불가능합니다. 한 가지 해법은 신뢰할 수 있는 매체에서 나온 이야기와 이미지만 믿는 것입니다. 그러나 이는 정보의 흐름이 파편화되고 민주화된 오늘날의 세상에서 제한적인 대안일 뿐입니다.

전문 번역: 인공지능 포토샵이 엄청나게 쉬워지면 무슨 문제가 생길까

 

그러나 적어도 이미지에 대해, 디지털 이미지 수정 프로그램의 역사라 할 수 있는 포토샵에서 한 가지 대안을 제시합니다. 바로, 이미지의 창작자와 수정 기록을 이미지에 메타 정보로 저장함으로써 진위를 파악할 수 있게 하자는 것입니다.

지난달 23일 뉴욕타임스의 IT 칼럼니스트 파라드 만주는 포토샵이 베타 버전으로 내놓은 생성 AI 기술인 파이어플라이를 소개하며, 포토샵이 이미지의 진위를 보증하기 위해 추진 중인 ‘콘텐츠 진위 이니셔티브(Content Authenticity Initiative)‘를 같이 소개했습니다.

유튜브에서 ‘포토샵 AI’를 검색해 새로운 기능을 구경할 수 있지만, 만주가 직접 보여주는 예도 놀랍습니다. 그는 탁자 위의 새가 자기 손 위에 올라가 있는 매우 자연스러운 사진을 만들어 냈고, 뉴욕의 마천루 위에 떠 있는 기구 사진도 매우 사실적입니다. 이런 ‘사실적인 가짜 이미지’를 구별하기 위해 공동의 노력이 필요하다는 주장은 매우 설득력이 있습니다.

 

콘텐츠 진위 이니셔티브는 성공할 수 있을까?

콘텐츠 진위 이니셔티브는 두 단계로 나눌 수 있습니다.

하나는 작성자의 SNS나 Web3 주소, 그리고 이미지의 편집 내역을 메타 정보로 기록함으로써 이미지의 수정 여부와 이미지에 대한 책임을 분명히 하는 것입니다. 그러나 이것만으로는 악의를 가진 이들이 해당 이미지의 메타 정보를 여전히 수정할 수 있어서 완벽한 해법이 되지 않습니다. 그래서 두 번째 단계에서 이미지의 메타 정보를 클라우드에 보관함으로써 이를 보호합니다.

물론 이미지를 재촬영하거나 캡처하는 방식으로 메타 정보가 없는 이미지를 생성할 수 있습니다. 하지만 이렇게 만들어진 이미지는 포토샵의 인증을 받을 수 있으며, 따라서 인증을 받은 이미지는 적어도 책임자가 존재하는 이미지로 남습니다. 언론은 이 책임자의 존재를 확인함으로써 보다 확실한 이미지만을 사용할 수 있습니다. 사람들은 SNS나 유튜브에서 인증이 없는 이미지를 사용할 경우 해당 매체를 덜 신뢰하게 될 것입니다. 이 표준이 널리 사용되려면 만주의 말처럼 카메라 제조사와 SW 업체, 언론사 등의 참여가 필요하며, 현재 이 과정이 준비 중입니다.

과연 이 방식이 성공할 수 있을까요? 물론 이는 정보의 생성과 전송에 있어 하나의 중간 단계가 추가된 것이기 때문에 전체적으로 비용으로 작용할 수 있습니다. 하지만 적어도 이런 기술이 필요할 정도로 가짜 이미지가 많아질 것이 분명하다는 점에서, 그리고 이런 인증이 없는 세상보다는 있는 세상이 더 나은 세상일 수 있다는 점에서 저는 기대를 하게 되네요.