전체메뉴

국제
닫기
이제 해당 작성자의 댓글 내용을
확인할 수 없습니다.
닫기
삭제하시겠습니까?
이제 해당 댓글 내용을 확인할 수 없습니다

[뉴스라운지] 전세계 딥페이크 '위협'...정치권, 선거 악용 '우려'

2024.01.31 오후 07:49
AD
■ 진행 : 함형건 앵커
■ 출연 : 김덕진 IT커뮤니케이션 연구소장


* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라운지] 명시해주시기 바랍니다.

[앵커]
AI 딥페이크 기술로 만들어진 테일러 스위프트의 이미지가 미국 사회에 파문을 일으킨 가운데총선을 70여 일 앞둔 우리나라에서도 딥페이크로 인한 가짜뉴스 우려가 커지고 있습니다.

딥페이크가 불러오고 있는 문제부터 어떻게 가려내고 규제해야 할지 김덕진 IT 커뮤니케이션 연구소 소장과 이야기 나눠보겠습니다. 안녕하세요.

세계적인 팝스타 테일러 스위프트가 딥페이크의 피해자가 되면서 미국 사회가 이번에 깜짝 놀랐던 것 같아요.
사실 합성 이미지, 가짜 이미지, 딥페이크를 이용한 이런 부작용은 이전부터 간간이 경고는 계속 있어 왔습니다마는 이번에 특히 큰 파장을 일으킨 현상, 어떻게 보셨습니까?

[김덕진]
결국에는 이런 겁니다. 말씀하신 것처럼 딥페이크라고 하는 것의 문제점이나 위기는 이미 2~3년 전부터 계속 지적됐고요. 특히나 맨 처음에는 오히려 우리나라의 K팝 스타들이 상당히 여기에 피해자가 됐었죠. 그때는 오히려 가만히 있다가 어떻게 보면 지금 전 세계 팝스타의 가장 아이콘이라고 하는 테일러 스위프트가 당하니까 이제 와서 이런 이야기가 나온다는 것들을 미국 언론에서 얘기하고 있고요.

특히 포브스지 같은 경우에도 이미 심한 딥페이크가 많았었는데 이 상태에서 스위프트의 딥페이크가 나오고 나서야 미 의회가 움직였다라고 하면서 일종의 비꼬는 태도도 있었습니다. 그만큼 이미 기술이라고 하는 것은 우리가 예상하지 못할 정도로 엄청나게 많이 증가해 있고 사진 한 장만으로도 그럴 듯한 영상을 만들 수 있는 수준까지 와 있다 이렇게 말씀드릴 수 있는 것이죠.

[앵커]
그런데 테일러 스위프트의 음란 가짜 이미지. 이것이 유포가 됐는데 17시간 동안 방치가 됐다고 하더라고요. 플랫폼에서도 여기에 대한 탐지나 실시간 감시가 계속 이루어지고 있는 게 아니었던 모양이에요. 어떻게 보셨습니까?

[김덕진]
이 부분이 상당히 어려운 부분이라고 보시면 될 것 같습니다. 왜냐하면 생각해 보시면 지금 1초에도 수천만 장의 사진들 이런 것들이 플랫폼에 올라가고 있어요. 그런 것들을 사람들이 직접 확인한다는 건 어려움이 있겠죠. 결국 그래서 대부분 이러한 방식들이 이른바 AI 알고리즘이 대신해서 이런 것들을 필터링해 주게 됩니다. 그런데 말씀드리면 이 알고리즘의 모니터링하는 기술, 그러니까 감시하는 기술보다 오히려 딥페이크를 써서 그럴듯한 이미지를 만드는 기술이 조금 더 앞서는 부분이 있다 보니까 이 부분에 있어서 자동 필터링이라는 게 상당히 어려운 부분이 있다라고 말씀드릴 수 있을 것 같고요.

또 반대로 이런 것들을 강력하게 해놓으면 플랫폼 입장에서 생각하면 일반인들이 본인들의 사진을 올렸는데 갑자기 이게 AI 조작 영상이라 안 올라가집니다라고 하면 이 플랫폼 입장에서 사용자들이 떨어져 나갈 수 있잖아요. 그러다 보니까 이러한 위험성이 있음에도 불구하고 약간은 이런 알고리즘들을 강하게 모니터링하지 않은 것이 아닌가라는 얘기가 나오고 있고 실제로 이번에도 트위터를 통해서 나오니까 X죠. 트위터의 CEO인 일론 머스크 역시도 이 부분에 있어서 사람들, 그러니까 일반 AI가 아니라 사람들의 모니터링을 더 강화시키겠다라고 하는 이야기가 나오고 있는 게 지금의 현실이다라고 말씀드릴 수 있는 것이죠.

[앵커]
사람이 직접 붙어서 전담팀을 꾸려서 검증을 해 보겠다, 이것도 사실은 좀 늦은 감이 있습니다마는 그런데 제한된 인력으로 지금 말씀하셨다시피 그 많은 물량을 다 체크할 수 있을 것인가 이것도 의문이기는 합니다.

[김덕진]
맞습니다. 그러다 보니까 다양한 해외에서, 국내에서의 피해 사례들 이런 것들이 늘어나고 있다고 말씀드릴 수 있는 것이죠.

[앵커]
이외에도 최근에 바이든 대통령의 가짜 목소리를 이용한 콘텐츠가 상당히 혼란을 야기했다 이런 것도 있었죠.
[김덕진]
말씀하신 것처럼 최근에 이 AI 기술이 어디까지 증가했느냐라고 하면 결국에는 예를 들면 유튜브에서 나오는 유명인들의 목소리 있지 않습니까? 목소리만 5분 정도, 혹은 더 짧게 2~3분 정도만 고음질로 되어 있는 것들을 모으면 이런 것들을 가지고 내가 원하는 키워드를 넣는 거죠. 예를 들면 그 음성을 학습시킨 다음에 내가 원하는 문장을 넣으면 그 문장의 인터네이션이나 아니면 톤까지도 똑같이 만듭니다. 심지어 어느 수준이냐면 내가 만약에 한국어로 녹음한 파일이 있잖아요. 그러면 그걸 만약에 비슷한 목소리의 영어나 일본어나 중국어까지도 가능합니다. 그러면 예를 들면 우리나라 목소리 같은 경우에는 일종의 성조가 없잖아요. 그런데 그런 성조까지도 자연스럽게 만들 수 있는 기술이 있다 보니까 누구든 마음만 먹으면 이러한 유튜브 영상들을 악용할 수 있는 부분이 분명히 존재할 수도 있다 이렇게 말씀드릴 수 있는 것이죠.

[앵커]
그래서 구체적으로 어떤 사례들이 있었습니까?

[김덕진]
예를 들면 말씀하신 조 바이든 이슈도 있었고 또 일론 머스크가 비트코인 투자자를 모집한다는 거짓 홍보 영상도 있었습니다. 그 외에 또 우리나라의 조인성, 송혜교 씨가 투자를 권유하는 영상들도 나왔어요. 그런데 이런 부분은 실제로 국내에서 피해자들도 상당히 존재했던 부분이고요. 그 외에 또 톰 행크스 같은 경우에 본인의 인스타그램에 가짜 톰 행크스에 속지 마세요라는 영상을 올리기도 했습니다. 왜냐하면 본인이 본인의 인스타그램을 보는데 본인이 안 찍은 광고가 나오는 거예요. 그거에 대해서 이게 어떻게 된 거냐 하면서 피해에 대한 이야기를 했고요.

또 이미지도 문제가 되는데 작년 5월에 펜타곤 옆이 폭발했다라고 하는 가짜 이미지를 누가 만든 거예요. 그런데 그것도 요즘에는 문장 하나만 넣어도 이런 이미지가 나오거든요. 그런데 그 이미지와 함께 가짜뉴스, 예를 들면 모 언론사가 단독 보도다라는 게 같이 나오니까 이게 실제인 줄 알고 인도에 있는 한 TV 프로그램, TV 방송에서 이걸 보도를 한 겁니다. 가짜의 정보를 보고 속보라고 보도를 하니까 일이 더 커지는 상황들도 작년에 생겼는데요. 그만큼 우리가 알든 모르든 이미 이러한 AI의 부작용 혹은 딥페이크의 부작용이라고 하는 것들이 이미 많이 나오고 있다. 그리고 실제로 피해를 당하는 사람들도 많이 있다라고 말씀드릴 수 있을 것 같습니다.

[앵커]
유명인의 이미지를 이용한 이런 가짜 정보, 허위 정보는 물론이고 일반인들도 이 리스크에 노출돼 있는 것 아니겠습니까?

[김덕진]
그렇죠. 이 부분이 상당히 피해가 심각한데요. 이른바 온라인에서 안 좋은 얘기인데 지인 능욕이라는 키워드가 이슈가 되기도 했어요. 오히려 아는 사람들의 이미지를 자꾸 이러한 음란물에 활용하는 이러한 건수들도 상당히 많이 늘었고요. 그래서인지 국내에 딥페이크에 대한 성적 허위 영상물을 차단하거나 삭제하는 건수들이 계속 늘어납니다. 문제는 이게 본인이 알고 본인이 신고하지 않으면 기본적으로 이게 자동으로 모니터링이 되지 않고 있기 때문에 결국에는 피해가 더 피해를 당하고 그리고 아까 보신 것처럼 유명 연예인도 수십 시간 있다가 이것이 모니터링을 하니까 일반인들은 더하지 않겠습니까? 결국 이미 퍼진 상태에서 삭제를 해도 데이터는 이미 인터넷에 있는, 이런 것들이 안타까움이라고 보시면 될 것 같고요. 또 그외에 요즘에 또 문제가 되고 있는 게 우리가 말하는 보이스피싱 있지 않습니까? 보이스피싱을 유명인 목소리가 아니라 실제로 우리 일반인들의 목소리 혹은 일반인들의 얼굴을 악용해서 보이스피싱에도 쓰이는 사례들이 생기고 있어요.

[앵커]
가족의 목소리를 합성해서.

[김덕진]
그렇죠. 왜냐하면 우리가 SNS에서 그 사람들의 음성 이런 것들도 쉽게 볼 수 있지 않습니까? 그런 것들을 정말 마음먹고 악용을 한다, 원하는 내용을 치면 아무래도 그런 상황이라면 100% 정확하지 않더라도 사람들이 오해하거나 이거 큰일났다라고 하면서 어떻게 보면 보이스피싱에 악용될 수 있죠. 그래서 이런 사례들이 최근에 많이 생기고 있다라고 말씀드릴 수 있을 것 같습니다.

[앵커]
이런 기술들이 한 2~3년 전만 하더라도 새롭게 출현하면서 신기하다, 저런 기술이 있나, 그 정도였는데 최근 한 1~2년 사이에 급속도로 발전을 하고 정교화되고 상당히 접근성이 높아진 측면이 있는 거죠, 결국?

[김덕진]
맞습니다. 이런 기술이 어떻게 증가하는지를 크게 3가지 정도로 나눠볼 수 있어요. 첫 번째는 알고리즘이라고 하는 기술의 발달이 있고 두 번째는 거기에 데이터가 많으면 잘 됩니다. 세 번째는 인프라, 그러니까 클라우드나 여러 가지 AI 시스템들이 좋아지면 잘되는 건데요. 그런데 생각해 보시면 챗GPT라고 하는 생성형 AI가 나오고 나서 많은 사람들이 이러한 AI 시스템에 접근을 하고 많은 활동을 하지 않습니까? 또 최근에 생성형 이미지라고 해서 우리가 어떤 글자를 넣었을 때 이미지가 나오는 것들이 나오는데 이게 어색한 게 예를 들면 연구자들이 봤을 때 이상할 수 있잖아요. 그런데 이상한 걸 누군가 고쳐야 되거든요. 연구자들이 고치는 건 한계가 있죠. 그런데 이러한 이미지가 재미있다고 여러 사람들이 쓰면서 이상하면 본인들, 그러니까 일반적인 유저들이 스스로 계속 학습을 시키면서 고쳐주게 하는 거예요. 그렇게 되니까 자연스럽게 이러한 기술들이 데이터적으로 늘어나고요.

또 AI 알고리즘 역시도 생성형 AI가 등장하면서 많은 알고리즘들이 예를 들면 그림 그리는 것에서 쓰는 알고리즘을 영상에 도입해 봤더니 된다든가 이런 식의 교차 이슈가 생기고 있고요. 또 요즘에 우리가 주식을 보면 알겠지만 거의 클라우드나 GPU 기술들이 엄청나게 발전하고 거기에 또 돈이 투자가 많이 되지 않습니까? 그래서 지금 어느 수준이냐? 제가 만약에 마음을 먹고 앵커님의 사진 한 장만 가지고 그리고 유명 인플루언서의 춤추는 이러한 것에 합성하는데 제가 테스트 해 봤는데 30초면 됩니다. 그러니까 사진 한 장과 실제 어떤 인플루언서가 춤추고 있는 것을 합성하는데 누구나 스마트폰 앱에서 1분이나 30초 안에 되는 세상이거든요. 그렇다면 이걸 악용한다고 마음을 먹으면 어디까지 악용이 될지 분명히 고민될 수 있는 부분이 있는 것이죠.

[앵커]
그렇군요. 그러니까 이런 도구들은 이런 가짜 이미지나 가짜 정보를 만드는 도구들은 누구에게나 열려 있고 자기의 실명을 넣지 않아도 등록해서 만들 수 있는 겁니까?

[김덕진]
그렇죠. 예를 들면 웹서비스 형태로도 있고 앱으로도 있고 여러 가지 형태가 있기 때문에 돈을 내고 쓴다라고 하면 정말 길게 보면 결제 추적까지도 할 수 있겠죠. 그런데 그런 게 아니라 이른바 오픈소스라고 해서 연구자들이 누구나 이런 것들을 활용할 수 있게 어떤 데이터를 놓고 그걸 아주 고성능의 컴퓨터 본인 게 있다, 그러면 심지어 본인 컴퓨터에 설치해서도 쓸 수 있다. 이렇게 말씀드릴 수 있는 거고요. 그렇게 해서 올리게 되면 당연히 출처를 찾기란 쉽지 않다라고 말씀드릴 수 있는 것이죠.

[앵커]
그렇다면 우리가 어떻게 대응해야 될 것인가. AI 기술로 만든 이미지니까요. AI 기술로 이것을 걸러내고 판별해낼 수는 없는지. 거기에 대한 연구 개발도 계속 이뤄지고 있지 않습니까? 어느 정도 수준까지 왔습니까?

[김덕진]
실제로 이렇게 말씀드릴 수 있을 것 같아요. 기술이 두 가지 관점에서 증가하고 있는데 하나는 결국에는 이러한 딥페이크 영상 역시도 어떤 데이터에 의거해서 새로 만들어진 거잖아요. 마치 우리가 해킹하는 기술하고 해킹을 막는 기술이 양쪽에서 서로가 공격과 수비를 하듯이 이러한 기술을 거꾸로, 그러니까 만들어내는 기술을 거꾸로 하면 이런 것들에 대해서 어느 정도의 패턴을 볼 수 있는 것이 아니냐라고 하는 부분들에 AI을 활용하는 기술들이 존재합니다.

그리고 또 하나는 아예 만들 때 이런 서비스들이 어떤 영상을 만드는 생성형 AI 서비스가 있을 거잖아요. 그러면 거기서 결과물을 낼 때 그 결과물의 소스 코드, 그러니까 어차피 영상에다가 워터마크처럼 넣어도 사람들이 지우니까 그게 아니라 파일 자체의 프로그래밍 코드 어딘가에 이거는 생성형 AI가 만든 거다라고 하는 코드를 심어놓는 거예요.

그러면 이게 만약에 악용이 된다라고 하면 이게 어쨌든 생성형 AI가 만든 것이거나 혹은 가짜라는 것을 우리 눈에는 모를 수 있지만 어떤 프로그래밍에서는 걸러지겠죠. 그래서 그런 형태로 하는 것들이 있는데요. 문제는 이런 것들이 있다고 하더라도 정말로 마음을 먹고 악용을 하겠다라고 하면 이런 필터링 기술들을 뛰어넘을 수 있는 부분들도 분명히 존재한다라는 것이고요.

그러다 보니까 지금 대부분의 이런 영상 플랫폼들은 기술을 발전시키면서도 사용자들이 이런 것들에 대해서 자발적으로 내가 이건 딥페이크를 활용한 거다, 생성형 AI을 활용한 거다라는 걸 체크할 수 있는 메뉴를 만들고 있습니다. 예를 들면 우리가 유튜브의 콘텐츠, 쇼츠 같은 것을 올리거나 아니면 틱톡 같은 것에 올릴 때 실은 이건 내가 출연하는 게 아니라 AI가 만든 거야라고 체크하는 것들을 만들고 있고요. 향후에는 만약에 내가 이런 콘텐츠를 올리는데 만약에 체크를 하지 않았다라고 하면 심하게는 그 계정을 폐쇄시키는 이런 정도의 정책들도 지금 연구하고 있는 것으로 알고 있습니다.

[앵커]
아까 말씀하신 탐지 도구 같은 경우에 기술은 개발돼 있는데 어떠한 경우에는 90% 이상의 정확도를 보인다고 공개가 돼 있습니다마는 AI가 만든 허위 정보 이미지라고 하더라도 거기에는 분명히 틈새가 있을 거니까요. AI가 만든 실수라든가 부족한 점을 캐치해서 판별해낸다. 아까 저희 화면에 나온 기술 중에 보면 얼굴의 혈류를 분석해서 허위 이미지를 탐색하는 기술도 만들어져 있고요. 실제로 그러면 이것을 활용하면 어쨌든 사용하지 않는 것보다는 효과가 있지 않겠습니까?

[김덕진]
그렇죠. 그래서 대부분의 클라우드 서비스나 온라인 서비스들에서는 이런 것들을 말씀하신 것처럼 탑재하는 방향으로 가고 있는 것 같아요.

[앵커]
어떻게 사용하고 있습니까?

[김덕진]
예를 들면 어떤 영상을 모니터링하거나 필터링하는 서비스들에서 예를 들면 기업에서 어떤 데이터를 모으는 이런 클라우드가 있다, 그러면 거기에 누군가가 업로드하는 서비스를 만들 수 있잖아요. 그러면 거기에 이런 필터링하는 기능을 옵션처럼 추가할 수 있다라고 말씀드릴 수 있을 것 같아요. 그러니까 결국 이건 개인 사용자용이라기보다는 대규모의 서비스를 만드는 데들이 특정 회사의 클라우드를 쓸 때 그 클라우드에 들어오는 영상에 대해서 필터링을 하는 솔루션이 들어가거나 혹은 출력, 그러니까 이 솔루션을 활용해서 영상에서 뭔가 뱉어낼 때, 뭔가 만들어낼 때 거기에 코드를 심는 이런 방식이라고 말씀드릴 수 있을 것 같고요.

어쨌든 개인사용자 입장에서는 이런 부분이 분명히 혼란될 수 있는 부분이 있기 때문에 역으로 사용자들 입장에서는 이런 게 되는구나, 어떻게 보면 딥페이크가 이 정도 수준까지 영상을 만들 수 있구나라는 걸 생각하면서 조금 맥락이 이상하거나 내가 봤을 때 이건 좀 말이 안 되는 것 같은데라고 하는 것들이 있다면 스스로 어느 정도 판단을 해야 되는 시대가 안타깝지만 왔다, 이렇게 같이 말씀드릴 수 있을 것 같습니다.

[앵커]
이 AI가 만들었다는 표시를 워터마크라고 하죠. 표시를 거기에 의무적으로 심도록 하는 그러한 방안도 가능할 것 같고 지금 외국에서는 이미 그것을 시행에 들어간 것으로 알고 있습니다마는.

[김덕진]
실제로 말씀하신 대로 구글의 신디아이디 같은 기술은 워터마크를 넣는 기술인데 말씀드리고 싶은 것은 대부분의 워터마크가 실제 우리 눈에 보이는 결과물 자체에 예를 들면 AI가 만든 겁니다라는 식은 거의 아니라는 거예요. 그러니까 결국에는 우리 눈에는 그냥 똑같이 보여요. 그런데 그 뒤에 예를 들면 출력한 파일의 코드 어딘가에 있어서 결국 이건 어떤 식이냐면 예를 들면 특정 알고리즘의 서비스에서 이 영상에 있는 파일을 올릴 때 그 파일을 검색하지 않겠습니까?

그러면 거기에서 어떤 부분을 봤더니 이거는 딥페이크가 만든 거예요라는 걸 체크할 수 있는 방식이지 우리 눈에 봤을 때 뭔가 이건 딥페이크로 만든 겁니다라고 자동으로 워터마크를 넣는 이런 것들은 아니다. 그리고 이런 게 있더라도 이건 그냥 한 번 더 어떤 필터를 돌리면 그것만 지울 수 있거든요. 실제로 이미지에서 특정 워터마크만 지우는 것도 AI가 해줘요. 그리고 영상도 지울 수 있기 때문에 만약에 내 눈에 워터마크가 있다, 없다로 이게 가짜다, 진짜다라는 걸 구분하는 건 오히려 위험할 수 있다, 이렇게 말씀드릴 수 있을 것 같습니다.

[앵커]
특히 딥페이크가 올해 문제가 되는 이유가 전 세계적으로 70여 개 국가에서 주요 선거가 치러질 예정이고요. 우리나라도 총선을 앞두고 있는데 딥페이크로 인한 위조된 허위 정보가 민주주의의 근간을 흔들지 않겠는가 이런 걱정이거든요. 우리나라 같은 경우에도 중앙선관위가 최근에 딥페이크를 이용한 콘텐츠 선거운동에 쓰지 못하도록 금지를 했습니다. 단속을 한다고 하는데 어느 정도 실효성이 있을 것 같습니까?

[김덕진]
예를 들면 그래도 시도하려는 것을 막으려는 이러한 움직임은 충분히 가능할 수 있다고 봐요. 하지만 그럼에도 불구하고 우리가 앞에서 논의한 것처럼 만약에 어떤 사람이 정말 악의적인 의도로, 그러니까 단순한 재미가 아니라 악의적인 의도와 목표를 가지고 만든다고 하면 이런 것들을 구분하고 탐지한다는 것은 상당히 하더라도 시간이 걸리는 거죠. 그런데 문제는 그 안에 이미 선거가 끝날 수 있고 그 안에 여러 가지 현상이 일어날 수 있잖아요.

그렇기 때문에 결국에는 이것을 만드는 것에 대한 가이드라인뿐만 아니라 스스로, 그러니까 우리 유권자들 혹은 우리 시청자들이 스스로 어떤 영상이나 콘텐츠를 볼 때 이런 것들에 대해서 무조건적인 신뢰보다는 이제는 이런 것들이 이렇게 어떻게 보면 사람이 직접 만드는 것만큼 유사하게 만들어질 수 있다라는 생각을 꼭 하시면서 이런 것들에서 우리가 한 번쯤은 비판하거나 검토하는 시선들이 중요하다라고 말씀드릴 수 있을 것 같습니다.

[앵커]
콘텐츠들을 온라인상에서 봤을 때 덮어놓고 퍼나르고 이런 것도 한번쯤 생각해 보시고 신중하게 하셔야 할 것 같습니다. 이런 일이 벌어졌을 때 일단 1차적으로는 플랫폼 차원에서 규제하는 방법도 있을 것이고 당국에서 단속하는 것도 있을 것이고 그렇게 되면 일단 가짜 정보, 딥페이크로 허위 조작한 합성물을 누가 만들어서 누가 유포를 했는가, 추적하는 것도 필요할 것 같은데요. 그런데 경우에 따라서는 해외 IP를 이용해서 유포하는 경우도 있어서 이런 건 어떻게 추적해야 합니까?

[김덕진]
말씀하신 대로 이게 추적이 어디까지 되느냐의 시선으로 가는 순간 솔직히 말씀드리면 쉽지 않은 부분이 많이 있습니다. 이건 뭐냐 하면 예를 들면 지금도 꼭 딥페이크 영상이 아니라 어떤 음란물이라든지 이런 것들이 있으면 결국 그 음란물이 해외 IP에서 온다고 하면 이게 추적하는 데 상당히 오랜 시간이 걸리잖아요. 그래서 비슷한 맥락이라고 보시면 될 것 같고요.

결국에는 이건 사람들이 자발적으로 못하게 막는 부분이 중요한 것 같습니다. 예를 들면 이런 거죠. 아주 처벌을 세게 하는 방식인 겁니다. 실제로 이런 방식이 미국이나 중국이나 일본 같은 경우도 지금은 대부분 가짜 성인물 동영상에 영향을 미치는 거기는 하거든요. 가짜 성인물 동영상이 있으면 이 부분에 있어서 상당히 강력하게 규제하는 부분이 있는데 이런 것들을 가짜 성인물 말고라도 정보성이지만 만약에 어떠한 다른 사람의 얼굴을 활용하거나 다른 사람을 활용해서 악용하는 정보를 만든다거나 이런 부분에 있어서도 비슷하게 강력한 규제를 만드는 것.

그래서 결국에는 이런 기술이 반대로 말하면 상당히 좋게 쓸 수도 있거든요. 왜냐하면 예를 들면 이 기술 자체가 콘텐츠나 영상을 만들 때 이 사람이 위험한 부분이 있으면 그걸 스스로 영상을 딥페이크를 통해서 여러 형태로 만들 수 있는 장점도 있는데 결국 장점은 살리고 단점을 줄이기 위해서는 안타깝지만 사람들이 시도하지 못하게 이런 규제들을 강하게 하는 것이 가장 첫 번째가 아닐까 싶고요. 두 번째는 그렇기 때문에 사용자들 입장에서도 내가 조금 이상한 영상이 있다라고 하면 비판적으로 바라보거나 천천히 보거나 한 번 더 보거나 그렇게 하면 완성도 있는 내가 안정적이라고 할 때 공유하는 이런 습관이 필요하지 않나라고 말씀드릴 수 있을 것 같습니다.

[앵커]
지금 화면에 미국이라든가 해외에서는 지금 어떻게 규제를 하고 있고 우리나라의 사례도 표시를 했습니다마는 그렇다면 앞으로 여러 가지로 제도적 측면에서 어떻게 보완해 나갈 것인가 사회적 논의가 있어야 할 것 같습니다.

[김덕진]
물론이죠. 결국 제일 큰 건 AI 관련돼서 지난번에 한번 말씀드렸는데 AI 리터러시라고 해서 우리가 미디어 역시도 미디어 리터러시라고 해서 우리가 미디어를 어떻게 바라봐야 하는지에 대한 관점의 교육이 있잖아요. AI도 마찬가지입니다. AI가 어디까지 가능하고 어디까지 불가능하고 또 이럴 때는 우리가 이렇게 잘 쓸 수 있고 악용될 수 있고 이런 것들에 대한 교육, 그다음에 논의. 결국 이것이 미칠 수 있는 사회적인 영향을 숨기고 쉬쉬하는 것이 아니라 이걸 드러내놓고 함께 토의하면서 어떤 식의 방향성을 잡아가야 할지 이런 것들에 대한, 지금도 늦었지만 빠르게 사회적 합의가 필요하다 이렇게 말씀드릴 수 있을 것 같습니다.

[앵커]
제도적 보완도 필요하고 사회적 논의를 통해서 어떻게 시민 교육을 할 것인가 이것도 굉장히 중요하다. AI 문해력에 대해서 말씀하셨습니다. 딥페이크 문제가 사회적 문제로 세계 각국에서 대두되고 있습니다마는 앞으로 여기에 대해서 우리가 어떻게 잘 대처해 나갈 것인가.

순기능도 물론 있어요. 순기능도 있기 때문에 부작용을 어떻게 최소화할 것인가 사회적으로 공론장에서 잘 토의가 돼야 할 것 같습니다.


오늘 말씀 여기까지 듣겠습니다.

김덕진 IT 커뮤니케이션 연구소 소장과 함께했습니다. 고맙습니다.



※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
AD
AD

Y녹취록

YTN 뉴스를 만나는 또 다른 방법

전체보기
YTN 유튜브
구독 4,740,000
YTN 네이버채널
구독 5,657,564
YTN 페이스북
구독 703,845
YTN 리더스 뉴스레터
구독 14,756
YTN 엑스
팔로워 361,512