[트렌드 리포트][마케터의 시선] EP.161 딥페이크 쇼크, 기술 진보가 디스토피아로 가는가

2024-10-23

광복절과 의미있는 사진들 


얼마전 광복절을 맞이해 빙그레에서 국가보훈처와 ‘처음 입는 광복’ 이라는 공익광고 캠페인을 진행했습니다. 이 캠페인에서는 딥페이크 AI 기술 덕분에 사진 속의 독립 운동가들이 움직이면서 태극기를 휘날리기도 했고, 과거의 흐릿했던 사진들이 뚜렷한 컬러로 복원되었죠.  신채호 선생, 유관순 열사 등의 사진도 복원되었고 미소짓는 영상도 등장하기도 했고요. 사진을 보면서 내내 뭉클했던 기억이 납니다. 


(출처: 뉴시스, AI로 복원한 신채호 선생 얼굴) 


요즘엔 딥페이크 기술 덕분에 20-30년 전의 옛날 사진에 생동감도 부여넣고, 잊혀졌던 할아버지, 할머니의 웃는 모습을 영상으로 볼 수 있어 참 따뜻했죠.  


딥페이크 기술이란 인공지능의 학습을 의미하는 딥러닝(Deep Learning)과 가짜를 의미하는 페이크(Fake)를 합친 단어로, 실제와 구분하기 힘들 정도로 사진, 영상에 다른 얼굴을 합성시켜 만든 콘텐츠를 의미합니다.  


그런데 다양한 긍정적인 사례들의 등장에도 불구하고, 최근 쏟아지는 수많은 부정적인 기사들로 인해 ‘딥페이크’라는 단어가 위험하고 무서운 단어로 변질되고 있습니다.  


얼마전에 기사에 나왔던 트와이스, 권은비와 같은 연예인의 얼굴이 음란물에 합성되어 유포되었다는 사실에서부터 수많은 미성년 학생들의 사진 등이 성범죄 영상물로 사용돼 유포되었다는 충격적인 소식이 이어지고 있기 때문입니다. 



(출처: 미디어오늘) 




현재 범죄의 온상으로 지적되고 있는 텔레그램에서는 여성의 얼굴을 합성해 음란물을 만들어 유포하는 방들이 활개를 치고 있을 뿐만 아니라, 텔레그램에서의 봇 프로그램이 있어 일반인들도 사진을 올리면 사진 속 얼굴과 나체 사진을 합성한 사진을 쉽게 만들 수 있도록 유혹합니다. 또한 가상 화폐 등의 지불을 통해 더한 범죄 조직이 수익화 구조를 만들어 일반인들 심지어 미성년자까지 꾀어 내고 있습니다. 


국내 경찰은 이와 관련해 딥페이크 음란물을 자동 생성하는 텔레그램 내의 프로그램 봇 8개를 조사 중인데 피해자만 2천명이 넘는다고 합니다. 


최근 프랑스에서는 텔레그램의 창업자인 파벨 두로프를 체포하기도 했죠. 이유는 범죄를 방치하고 공모하는 혐의였습니다. 아직은 정식 기소는 아니었지만 예비 기소의 내용을 보니, 두로프는 미성년자 성착취물을 조직적으로 유포하거나 범죄조직이 불법 거래가 가능하도록 텔레그램 내의 온라인 플랫폼 관리를 공모한 혐의 그리고 마약 밀매 범죄 등을 공모한 혐의였습니다. 이와 관련해 두로프는 보석금을 74억원을 내는 조건으로 석방 허가를 받았으나 현재 프랑스에서 출국 금지에 일주일에 2번은 경찰에 출석해야 합니다. 


(출처: 세계일보) 


텔레그램이 처음 등장했을 때 보안이 강화된 메신저이지만 가입도 간편하게 메시지 삭제 등이 간편해 사람들의 환호를 받았지만, 이러한 장점 때문에 오히려 그 장점을 범죄로 악용하는 사람들이 급증하면서, 이제는 ‘텔레그램’ 하면 사람들이 범죄 관련 키워드들을 떠올리는 것을 보면 확실히 문제가 있는 메신저라고 여겨질 정도입니다.



국내 범죄 데이터를 살펴보니,  


그런데 문제는 한국인들이 딥페이크 관련돼 국제 데이터에서도 입방아에 오르고 있다는 겁니다. 


미국 사이버보안 업체 시큐리티 히어로가 <2023년 딥페이크 현황 보고서>를 내놨는데요. 2023년 딥페이크 성착취물 사이트 10곳, 영상물 9만5820건을 분석해보니 전세계에 유포된 음란 합성물의 등장인물 중 무려 53%가 한국인이었다고 합니다. 


국내에서 방송통신심의위원회의 2023년말 기준 성적 허위영상물 시정 요구건수는 5996건이었는데, 2021년 1913건 대비해서 3배 이상 증가했다는 사실을 보면 한국에서 생각보다 너무나 많은 불법 영상물이 제작, 유포되고 있음을 알 수 있는 대목입니다. 



(출처: 캔바) 


여기서 심각한 부분은,  10대의 가해자, 피해자가 많다는 것입니다.  


10대가 딥페이크를 악용해 범죄에 가담하는 건수가 매년 증가하고 있습니다. 허위 영상물을 배포해 입건된 10대의 데이터를 보니 2021년에는 51명, 2022년 52명이었는데 2023년 91명, 2024년 1-7월까지 131명으로 지난 4년간 입건된 피의자 중 70.5%에 해당하는 325명이 10대였습니다. 그리고 10대들이 가해자이다보니 반대편인 피해자도 10대 증가율이 높았습니다. 


2021년부터 2023년까지 3년간 딥페이크 범죄에 대해 경찰이 조사한 결과 피해자의 10명 중 6명이 10대였습니다. 구체적인 숫자를 살펴보니 3년간 신고된 피해자 527명 중 315명(59.8%)가 10대였고, 169명(32.1%)가 20대, 28명(5.3%)가 30대, 6명(5.3%)가 40대로 나타났습니다. 


특히 10대들의 가해자, 피해자가 많다는 사실은 집단 또래 문화 내에서 심상치 않은 일들이 벌어지고 있다는 겁니다. 가해자들이 호기심, 장난으로 시작한 일들이 반복되면서 죄책감, 윤리적 책임에 대한 생각이 부재해 범죄로 이용되었을 수도 있고, 아예 가해자들이 처음부터 나쁜 마음을 먹고 범죄를 저질렀을 수도 있다는 생각이 듭니다. 예전과 달리 요즘의 10대는 생각보다 지식수준도 높고, 범죄 등에 대한 처벌에 대한 정보를 많이 획득하기 때문에 더 영악하게 행동을 할 수 있다는 생각도 들고요.  


좌우간 이러한 상황이 충격적이기도 무서운데, 기술 사용이 쉽다보니, 10대들이 범죄에 노출되고 있습니다. 현재의 딥페이크 합성 제작물 기술이 비전문가도 쉽게 사용할 수 있을 정도로 발전했기 때문에 초보자도 몇 번 연습만 하면 쉽게 합성 이미지, 영상을 만들 수 있습니다. 


구글 플레이스토어에서 AI 얼굴합성, AI 페이스스왑 등의 검색어만 찾아도 다양한 앱에서 얼굴을 바꾸거나 성별을 바꾸는 등의 기능들이 제공됩니다. 친구끼리 재미있는 창작활동을 할 수도 있지만 마음만 먹으면 초보자도 범죄의 유혹에 빠질 수 있다는 겁니다. 


(출처: 조선비즈)  


AI 기술의 발전 뿐만 아니라 국내 형사처벌 수준이 낮다는 점 역시 범죄를 부추기는데 중요한 요인이 되고 있습니다. 한국에서는 그동안 성범죄 관련 처벌 수준이 매우 낮다는 것은 꾸준히 지적돼 왔던 문제입니다. 국내 법을 살펴보면 현행 성폭력처벌법에서 몰래카메라와 같은 불법촬영물을 소지, 구입, 저장, 시청한 사람은 3천만원 이하 벌금 혹은 3년 이하의 징역에 처하게 됩니다. 


그러나 딥페이크를 활용한 음란물 등 허위 영상물의 경우 영상을 만들고 유포한 사람에게만 처벌할 수 있고 소지, 구입, 저장, 시청한 사람들의 경우 처벌 조항이 없죠. 또한 불법 촬영물 유포자의 경우 최대 형량이 징역 7년이지만, 허위영상물 유포자의 경우 최대 형량이 5년인 것 역시 국내법이 시대를 따라가지 못하는 것을 반증합니다. 피해자는 인생 전체에 트라우마로 남을 수 있는 사건에 대해 국내 형량이 적다는 것은 그동안 오랫동안 지적돼 온 문제입니다.


그래서 이번 국회에서는 형사처벌을 강화하며 허위영상물에 대한 처벌 수위도 높이기 위해 법안 발의를 진행하고 있다고 합니다. 


그 외에도 딥페이크 불법 영상물을 막기 위해 워터마크를 표기하자, 콘텐츠 유통 플랫폼 기업의 모니터링을 강화하자 등의 솔루션이 나오고 있습니다만, 의무화는 시기상조일 수 있습니다. 특히 워터마크 부착의 경우 저작자를 밝히는 표식 행위인데 해당 기술 개발이 쉽지 않기 때문에 스타트업이나 중소기업의 산업 진입 장벽을 되려 높이는 우려가 있습니다. 근본적인 해결이 될 수는 없다는 뜻이죠.  



마케터의 시선


이와 관련하여 마케터의 시선에서 분석해보자면, 우리가 살 앞으로의 미래는 AI 기술로 인해 디스토피아가 될지 유토피아가 될지 진지한 논의와 대응이 필요한 것 같습니다. 


AI 기술은 매년, 아니 매달 진화하는 것 같습니다. 챗GPT가 텍스트 기반으로 대화를 하던 서비스를 출시한 후 시나리오를 기반으로 창작 영상을 만드는 소라(SORA)가 나온게 1년 남짓 정도밖에 되지 않았습니다. 이제 기술 속도는 우리의 사고를 훌쩍 뛰어 넘어 텍스트, 음성 데이터까지 함께 처리하는 멀티 모달 방식으로 진화해서 딥페이크로 사진, 영상 합성하는 수준이 아닌 아예 시나리오 기반으로 허위 영상의 창작까지 가능해질 수 있게 될 겁니다. 진실과 거짓을 구분하지 못하는 경우 해당 영상의 경우 피싱 범죄, 납치영상, 협박 등 범죄로 악용될 가능성은 충분합니다. 


일전에 이와 관련하여 2041년의 미래를 예상해 논픽션의 상상과 기술 내용을 썼던 리카이푸의 <AI 2041>의 책 내용이 떠올랐습니다. 2041년 전세계는 딥페이크 기술이 너무나 정교해서 정말 실제인지 가짜인지 구분하지 못할 정도로 발전돼 수많은 범죄에 악용되고 있는 디스토피아에 대한 내용을 그린 내용이었는데요. 글을 보는 내내 마음이 무거웠습니다.


이러한 환경을 벗어날 수는 없을까?  


저자는 이와 관련하여 책에서 당장은 어렵지만 장기적인 방법이 있음을 이야기합니다. 

원본이 변경되지 않음을 보장해주는 블록체인 기술을 활용해서 스마트폰 등으로 찍은 모든 사진, 동영상 진위를 촬영 시점에 확인하는 겁니다. 그 후 웹사이트에 올리는 모든 영상, 이미지를 블록체인 기술로 인증되었음을 보여주면 된다고 합니다. 그러나 이 문제는 모든 장치가 블록체인 기술을 활용해야 하고, 블록체인이 대규모로 처리할 수 있을만큼 빨라져야 하는 과제도 남아있죠. 


(출처: 조선비즈) 


현재 기술로 진짜와 가짜 영상을 구분할 수 있는 방법들도 있습니다. 예를 들어 AI 기술로 얼굴 표정, 입모양의 부자연스러운 부분을 캐치해 낸다거나, 눈 깜빡임, 조명, 얼굴의 그림자와 빛의 흐름, 혈류나 세부적인 피부 특징을 찾는 방법 또는 CNN(Convolutional Neural Network) 기술이라 하여 가짜 얼굴, 진짜 얼굴 이미지를 대량 학습해 구별하게 하는 방법 들이 대안으로 제시되고 있습니다. 


그러나 뛰어난 기술은 양면성을 가지고 있어 하나를 막으면 그걸 뚫을 수 있는 또 다른 기술이 생겨나면서 끊임없이 창과 방패의 싸움이 이어질 것 같습니다.  그리고 디지털 기술 발전의 속도와 시민의 의식이 올라오는 속도의 불일치로 인해 이 현상은 상당기간 계속될 것이라는 겁니다. 


(출처: 캔바)  


가해자보다 피해자의 예방교육을 더 중시했던 국내 교육도 변화가 필요합니다. 주로 피해자 예방으로,  밤늦게 돌아다니지 마라, 짧은 치마 입지 마라와 같은 교육을 보편적으로 받았던 10대의 기억을 떠올려 보면, 이제는 가해자가 양산되지 않게 시민 의식을 높이는 교육도 병행되어야 할 것 같습니다. 또한 범죄자에 대한 처벌 역시 강화가 되어 강제하는 방법 역시 중요한 대안이 될 수 있습니다. 


앞으로 AI를 중심으로 하는 기술은 우리의 상상, 우리의 의식을 아득히 뛰어넘을 정도로 발전할 겁니다. 그리고 우리가 우려하는 미래 혹은 우리가 대비하는 미래 중 어떠한 미래로 흘러갈 겁니다. 그래서 지금 티핑 포인트를 돌파하기 직전에 진지하게 미래를 준비해야 합니다.




#딥페이크 #텔레그램 #디스토피아 #AI #이은영대표 #마케터의시선 #마케돈 #리브랜드 #leebrand #리브랜드연구소