■ 진행 : 김영수 앵커, 엄지민 앵커
■ 출연 : 임종인 고려대 정보보호대학원 교수
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 더뉴스] 명시해주시기 바랍니다.
[앵커]
윤석열 대통령의 가짜 연설 동영상이 온라인에서 확산하자 방송통신심의위원회가 오늘 차단 조치를 의결했습니다. 문제는 가짜를 진짜처럼 합성한 영상, 이른바 딥페이크 영상이 정치, 특히 선거에도 영향을 미칠 수 있다는 지적이 계속 나오는 겁니다. 특히 딥페이크는 제작이 어렵지 않아서 최근 각종 사기 사건에도 악용돼 주의가 필요합니다. 어떤 문제가 있고 해법은 무엇인지 임종인 고려대 정보보호대학원 교수와 함께 이야기 나눠보겠습니다. 어서 오세요. 윤석열 대통령의 가짜 연설 영상이 온라인에서 지금 많이 퍼지고 있어서 논란이 되고 있는데 영상을 혹시 보셨나요?
[임종인]
봤습니다.
[앵커]
그런데 기사들을 보니까 짜깁기 영상이다, 딥페이크 영상이다, 여러 이야기들이 나오는데 교수님께서 보시기에는 어떻습니까?
[임종인]
제가 보기에는 워낙 목소리도 그렇고 전체적인 게 부드럽게 되어 있어서 딥페이크 기술로 보고 있는데 사실 짜깁기는 기존 것을 가지고 조합한 거고요. 그런데 큰 의미가 없는 게 요즘에 제미나이도 그렇고 소라도 그렇고 워낙 AI가 하루가 다르게 발전하고 있어서 사실 선거가 지금 한참 남았지 않습니까? 50여일 가까이 남았는데 한 달 후에 나오는 AI는 지금보다 성능이 또 배 이상 좋아질 거예요. 그러니까 지금 그 논란 거리가 아닙니다.
[앵커]
대선 때도 AI 후보들 있었잖아요. 그때에 비해서 이번 영상이 굉장히 많이 정교해졌더라고요?
[임종인]
그럼요. 지금 우리가 옛날에 무어 법칙이 있었는데 18개월 만에 성능이 2배씩 좋아진다고 했는데 AI 쪽에서는 1년에 10배씩 좋아진다고 보고 있습니다.
[앵커]
그 정도로 기술이 발전하고 있는 거군요. 오늘 방송통신심의위원회가 차단 요청을 했는데 차단을 의결했어요. 그러면 어떤 과정을 거치면서 삭제가 되는 겁니까?
[임종인]
사실은 방심위가 하는 건 큰 의미가 없어요. 왜냐하면 사실 퍼지는 것이 애당초가 유튜브하고 틱톡에서 퍼졌거든요. 그런데 우리나라 네이버, 카까오부터 해서 우리나라 SNS는 사실 결의가 되면 즉시 신고되는 순간부터 임시 조치라는 것을 취해서 내려버려요. 그런데 저도 지금 오기 전에 유튜브 검색해봤지만 글로벌 업체들은 단일 기준이 있고요. 우리나라 한국 지사는 신고를 받으면 그것을 미국 본사에다 얘기하고, 그러면 거기서 어떤 절차를 거쳐서 하는데 아무리 패스트트랙을 해도 일주일은 걸리고 길 때는 20일 정도 걸리거든요. 그래서 그게 실효성을 갖지 못하고 있기 때문에 이 부분에 있어서 어떻게 할 거냐. 이게 전 세계적으로 큰 문제고요. 그래서 지난주에 혹시 보셨나 모르겠는데 뮌헨에서 뮌헨시크리티컨퍼런스라고 해서 전 세계 20개 빅테크들이 우리가 이 문제를 심각하게 다뤄야 된다. 올해 같은 경우에 전 세계에서 우리나라, 미국 대선, 그리고 우리나라도 3년 있으면 또 대선이고요. 올해만 모두 76개국에서 주요한 선거가 있는데 이런 일이 계속 벌어져서는 안 되니까 우리가 책임을 갖고 해야 된다는 게 있습니다.
[앵커]
궁금한 게 하나 더 있어서요. 그렇다면 이 영상을 누가 만들었는지 찾는 작업은 얼마나 걸립니까?
[임종인]
이건 사실은 정치적 목적으로 특히 할 때가 문제인데 정치적 목적으로 했을 때는 모니터링팀들이 있어서. 예를 들면 유력한 총선이라든지 이번 같은 경우에 혹시 자기에 대해서 음해를 하는 영상이 있을까 봐모니터링 요원들을 돌리고 있을 겁니다. 그런데 거기에 걸리지 않으면. 그런데 일단 걸리면 즉시 신고하고. 그런데 아까 말씀대로 실효성이 없어요.
[앵커]
삭제하는 데 최대 20일까지 걸린다고 하는데 계속 또 올릴 수도 있잖아요?
[임종인]
그럼요. 그리고 문제가 국내에서 올리는 게 아니라 만약에 우리나라 선거에 개입을 하려고 한다, 적대 국가가. 프랑스에서 사실은 러시아가 프랑스 대선에 17년에도 개입하고 22년에도 개입하다 보니까 관련돼서 대응하는 법도 만들고 기구도 만들고 미국의 빅테크하고 협력 체계를 갖췄거든요. 우리도 비슷한 과정을 거칠 것입니다. 특히 김정은 이 사람이 계속해서 적대적인 말을 쏟아내고 있으니까. [앵커] 사후적인 조치기 때문에 일단 실효성 자체가 적다고 말씀하셨고 만약에 선거 하루, 이틀 전에 이런 영상이 나와버리면 그때는 파장이 더 클 것 같아요?
[임종인]
그렇죠. 맞습니다. 그래서 사실 우리가 여론조사 같은 경우도 일주일 전부터 공표 금지시키잖아요. 그래서 프랑스 같은 경우에는 표현의 자유라는 이 가치와 충돌하기 때문에 굉장히 제한적으로 선거 3개월 전부터 판사가 직접 해서 48시간 이내에 명예훼손, 아동 포르노 그리고 선거 개입, 명백한 허위에 대해서는 즉시 내리도록. 그리고 외국과의 협력체계를 다 갖췄는데 우리도 이번 기회에 해서 선거 예를 들면 한 달 전부터는 빅테크하고의 협력 체계를 만들도록 해야 됩니다.
[앵커]
지금 저희가 사진을 보여드리고 있는데 트럼프 전 대통령 사진. 다 저게 가짜 사진이잖아요. 저게 동영상은 아닌데, 지금은 바이든 대통령, 트럼프 전 대통령 할 것 없이 딥페이크 영상이 유포되고 있어서 미국 사회에서도 문제인가 봐요?
[임종인]
그러니까 저거는 그냥 단순한 이미지인데 최근에는 멀티모달이라고 해서 텍스트를 넣기만 하면 보이스, 영상, 이미지, 다양한 것으로 다 되기 때문에.
[앵커]
오바마 전 대통령 저것도 가짜 영상이죠? [임종인] 네, 그리고 얼마 전에 조인성 씨를 갖다가 사기 사건도 있었잖아요. 워낙 감쪽같아서 이거에 대해서 대책을 저도 전문가로서 몇 가지 생각하고 있는데.
[앵커]
뭐예요?
[임종인]
바로 내려달라고 하면 그쪽 예를 들면 유튜브라든지 틱톡 이쪽도 그쪽 시민단체에 고소당할 수도 있어요. 그래서 한 가지 방법은 패스트트랙을 명백한 것에 대해서는 패스트트랙을 하고 한편으로는 이게 예를 들면 이 나라에서 신고가 들어왔다, 가짜라고. 그래서 그런 것을 갖다가 밑에다가 라벨을 붙이는 것입니다. 이건 가짜일 수도 있다. 그리고 또 프랑스 같은 경우에는 그런 것에 대해서는 해상도를 낮춰달라고 그래서 해상도를 낮추게 한다든지 여러 가지로 해서 보는 사람들이 이건 문제점이 있을 수 있구나.
[앵커]
조금 전에 보여드렸던 영상을 다시 한 번 보여주실래요. 톰 크루즈 영화배우인데 사실은 저게 영화배우가 아니다. 일반인들이 얼굴을 입힌 거거든요. 영상을 좀 더 보시면 나오는데 저렇게 기술이 발전한 겁니까?
[임종인]
이게 사실은 딥페이크 자체가 나쁜 것은 아닙니다. 우리 작년에 인디애나존스5 있었지 않습니까? 거기서 해리슨 포드가 40대 모습으로 나왔고 그 목소리도 40대 모습이지 않습니까? 그거 다 AI로 만든 거잖아요.
[앵커]
저렇게 합성을 한다는 거예요. 걱정이네요. 그런데 이거 막을 수 있는 방법이 현재로서는 그다지 효과적인 방법은 없는 거네요?
[임종인]
플랫폼을 우리 네이버, 카카오는 제대로 된 플랫폼도 아니고 한국에서만이고 이번에도 유튜브, 인스타그램, 틱톡 이게 문제니까 이들의 글로벌 책임의식을 가져야 된다. 이게 다들 공감대가 있기 때문에 작년에 12월에 한미일 안보실장 회담에서 가짜뉴스에 대해서 공동대응하겠다 공동성명도 했습니다. 그리고 EU도 마찬가지고. 전 세계적인 문제입니다.
[앵커]
굉장히 교묘하잖아요. 그래서 선거에 직접적으로 영향을 미친 해외 사례들도 여럿 있더라고요. 그런데 이런 딥페이크 영상으로 실제 선거에 영향을 미쳤다, 그렇게 됐을 때 처벌을 받게 되면 어떤 것 받습니까?
[임종인]
이게 범인을 잡는 게 어려워요. 왜냐하면 대개 외국 VPN을 쓰든지 국내에서 만들어도 외국 IP로 들어오고.
[앵커]
외국 IP에서 만들어놓고 도망가는 거군요?
[임종인]
그렇죠. 그렇게 해버리면 사실은 수사가 거의 불가능하고. 그다음에 한 가지 방법은 우리나라에도 유명한 인플루언서들이 있지 않습니까? 인플루언서 계정을 해킹해서 그 사람 계정에다 쫙 뿌려버리는 거예요. 그러면 더 어렵죠.
[앵커]
이거는 선관위 차원에서도 특별하게 대책을 당장이라도 만들어야 될 것 같은데요?
[임종인]
선관위 입장에서는 제가 보면 뚜렷한 대책은 없고요. 선관위 입장에서는 이런 일이 있을 수 있다. 그래서 오늘 YTN처럼 이런 것에 대해서 국민들의 인식 제고를 시켜서 딥페이크 영상에 속지 말라고 계속 계도하는 수밖에 없어요.
[앵커]
행안부, 검경 당국 다 나서야 될 것 같은데요?
[임종인]
네, 나서는데 결국은 미국도 한국이 또 우리 IT 강국이니까 한국의 도움이 필요한 경우가 있거든요. 그러니까 어떻게 보면 아까 한미일이지만 UN 차원에서 딥페이크와 관련된 어떤 위원회가 만들어져서 이거에 대해서 빅테크들의 협력을 이끌어내는 시스템을 갖춰야 됩니다.
[앵커]
일단 제도적으로 현재로서는 한계가 있는 게 분명한 상황이고 우리나라는 총선이 이제 50일도 안 남은 상황이기 때문에 이걸 수용하는 수용자들이 어떻게 판단을 할 수 있느냐 이것도 중요할 것 같아요. 영상들 딱 봤을 때 이제는 이게 진짜인가라는 생각을 한 번쯤은 해봐야 되잖아요. 우리가 어떻게 분간할 수 있습니까?
[임종인]
사실 기술적으로는 어렵습니다. 기술적으로는 방법이 없고요. 지금 보면 워터마크를 한다든지 여러 가지 방법들이 있는데 이게 창과 방패의 싸움이에요. 그리고 이러한 불법 영상을 만드는 그런 AI들이 다크웹이라고 하는 암시장에서 거래되고 있습니다. 그래서 거기서 만들어지는 것들은 워터마크 붙일 필요도 없고요. 기존의 워터마크도 기술적으로 즉시 제거가 가능합니다. 그래서 그런 것은 거의 불가능하고 아까 말씀드린 대로 국민들의 인식이 제고되고 그다음에 국제 공조에 의해서 가능한 한 빠른 시간 내에 제거한다든지 아니면 그게 어려우면 거기다가 이거는 신고 당한 겁니다.
의심스러울 수 있습니다. 어떤 표식을 다는 것, 그 정도가 현실적인 방법입니다.
[앵커]
이런 영상이 유통되는 플랫폼 기업들 있잖아요. 유튜브라든지 틱톡이라든지 인스타그램, 이런 플랫폼 기업에 책임을 지우는 방법도 있습니까?
[임종인]
그런 것에 대해서 미국에서도 그렇고 EU에서도 그렇고 그들에서 법적인 책임을 주는 법들이 제안이 됐어요. 제안이 됐는데 현실적으로 현재는 아직까지 발효가 안 됐고요. 그리고 이게 아까 말씀드린 대로 함부로 남용되면 표현의 자유를 억압한다, 이런 논란에 휩싸일 수 있기 때문에 굉장히 한정적으로, 그리고 기간이라든지 범위에서 한정적으로 하는 것이 국제적인 합의가 이루어져야 됩니다.
[앵커]
지금 정치 선거뿐만이 아니에요. 연예인의 딥페이크 영상이 사기에 악용되는 사례가 많이 발생하고 있는데 저희가 정리를 했습니다. 테일러 스위프트 같은 경우에 얼굴이 합성된 음란 이미지 유포가 된 적이 있고요. 조 바이든 대통령 같은 경우에는 바이든 대통령 목소리로 민주당 당원에게 투표 거부 독려 전화를 하기도 했고. 일론 머스크, 비트코인 투자자 모집 거짓 홍보 영상이 유포돼서 논란이 됐었고요. 앞서 잠깐 조인성 배우, 송혜교 배우, 투자 권유하는 거짓 영상 유포. 저 영상을 보고 현혹되거나 그런 분들이 많다고 하더라고요.
[임종인]
그러니까 전에는 사실은 어떤 언론, 미디어에 나오면 국민들이 어디 방송에 나왔어, 신문에 나왔어 믿었는데, 편집 기능이 있으니까. 지금은 그게 어려워졌기 때문에 앞으로 이 부분을 어떻게 해결하느냐, 이게 언론의 문제인 것 같습니다.
[앵커]
AI 기술이 계속 발전하기는 하는데 단속하는 기술도 발전해야 되는 것 아니에요?
[임종인]
지금 그러고 있습니다. 그러고 있는데 결국은 이게 창과 방패의 싸움이라고 그러지 않습니까? 그리고 암시장에서. 우리가 대북제재를 아무리 해도 김정은 이 사람 하잖아요. 그런 식으로. 그게 문제입니다.
[앵커]
직접적인 피해 사례가 있었잖아요. 조인성 배우, 송혜교 배우 같은 경우에는. 그러면 이것을 본 투자자들, 투자하기 전에 직접 결정하기 전에 검색을 해보고 좀 더 알아보는 이 정도의 검증밖에 없겠네요?
[임종인]
그렇죠. 우리 보이스피싱이나 이런 거 당하면 바로 하지 말고 그 기관에 직접 확인 전화를 걸라고 하잖아요. 그런 식으로 향후에 정부에서 피해를 막기 위해서 각 분야별로 검증할 수 있는 시스템을 갖추기는 갖춰야 되겠죠.
[앵커]
지금 딥페이크 활용 기술 잠깐 영화 속에서도 긍정적인 면도 있다고 하셨잖아요. 물론 악용하는 사례가 가장 큰 문제이긴 한데, 기술 발전에 필요한 부분이기도 하죠?
[임종인]
그럼요.
[앵커]
적극적으로 활용할 수 있는 분야가 어디 더 있겠습니까?
[임종인]
우리가 콜센터 같은 데서 하면 전화하면 대답하고 그러는데 AI가 나서서 친숙한 얼굴로 해서 여러 가지 답변도 하고 그렇게 한다고 하면. 예를 들면 어느 은행 같으면 우리 유명 연예인이 모델로 나서잖아요. 그러면 초상권 받은 거니까 그 사람이 직접 대답하는 형태로 전문적으로 다 상담하고 하면 훨씬 고객들은 편하죠.
[앵커]
워터마크 표시하는 거 있잖아요. 페이스북인가요. 최근에 일부 IT 기업들이 적용하고 있잖아요. 워터마크 찍혀야지만 진짜 사이트다, 이렇게. 그렇게 큰 효과를 거두지 못하나요?
[임종인]
그게 제 전공 중의 하나인데요. 이게 창과 방패이기 때문에 워터마크 찍었는데 그걸 제거하는 기술도 나오고요. 그다음에 무력화시키는 기술이 계속 발전되고 있기 때문에. 그리고 아까 말씀드린 대로 예를 들면 오픈AI라든지 구글이라든지 이런 데서 나온 것들은 워터마크를 찍겠다고 그러고 있거든요. 그런데 암시장에서 돌아다니는 AI에는 그런 것을 하지 않는 AI들이 등장해요. 특히 메타에서 오픈소스로. 지금 오픈 AI을 내놓았잖아요. 그건 누구나 갖다 쓰니까.
[앵커]
알겠습니다. 지금 딥페이크 기술이 워낙 발전하고 있는데 단속 기술도 발전하고 있습니다마는 따라잡지 못하고 있습니다. 지금 이 상황에서는 소비자, 유권자가 현명한 판단, 신중한 판단을 할 수밖에 없는 상황인 것 같습니다.
[임종인]
정부가 하여튼 최선을 다하고 있습니다.
[앵커]
잘 들었습니다. 임종인 고려대 정보보호대학원 교수와 알아봤습니다. 고맙습니다.
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]