사회

“사진 한 장에 생화학 테러급 공권력 낭비“ 이젠 믿을 게 없다?

2026.04.28 오후 02:17
YTN 라디오 (FM 94.5) [YTN ON-AI RADIO]

□ 방송일시 : 2026년 04월 28일 (화)
□ 진행 : AI 챗봇 “에어”
□ 보조진행 : 김영민 아나운서
□ 전화 : 최병호 고려대학교 휴먼 인스파이어드 AI 연구원 연구교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.



◆ 김영민 : 'ON-AIR'의 메인 토크 시간입니다. ‘온 마이크’인데요. “재미로 그랬습니다.” 대전 오월드에서 탈출한 늑대 ‘늑구’의 가짜 사진을 AI로 만들어서 퍼뜨린 40대가 경찰에 붙잡혔을 때 이런 무책임한 말을 했다고 합니다. 서울 구로구청의 한 간부 공무원은 AI로 부하 직원과 연인 사이인 것처럼 꾸민 사진을 심지어 카카오톡 프로필에 올렸다가 성폭력처벌법 위반으로 재판에 넘겨졌습니다. 이뿐 아닙니다. 최근 미국에서는 백악관 만찬 총격 사건이 벌어진 지 단 몇 시간 만에 AI로 조작된 이미지와 음모론이 SNS에서 30만 건 이상 쏟아졌는데요. 국내적으로도 선거 국면에 있어서 그런지 이런 부분에 대해서 예민하게 받아들여야 될 것 같습니다. 유튜브 채팅 올라왔습니다. “선관위에서 근무한 적이 있었는데 이때도 대통령을 비하하는 식의 딥페이크 영상이 있으면 찾아서 제출을 했어야 되는데 쉽게 찾기가 어렵더라고요.” 이런 말 보내주셨습니다. 이런 엄중한 국면에서 더더욱 우리가 경각심을 가져야 할 것 같은데요. 그래서 오늘 이 AI가 만들어내는 허위 정보가 얼마나 심각한 건지, 처벌 기술로 막을 수는 있는 건지 전문가 모시고 이야기 나눠보겠습니다. 최병호 고려대학교 휴먼 인스파이어드 AI 연구원 연구교수 전화로 연결돼 있습니다. 교수님, 안녕하십니까?

◇ 최병호 고려대학교 휴먼 인스파이어드 AI연구원 연구교수 (이하 최병호) : 네, 안녕하세요.

◆ 김영민 : 요즘 AI 활용한 딥페이크 문제가 진짜 문제입니다. 사회적인 문제로 거듭나고 있는데요. 요즘 특히나 관심을 갖고 지켜보고 계신 어떤 이슈 있으실까요?

◇ 최병호 : 최근에 제가 들었던 거는, 어르신이 딥페이크 영상을 보고 주민센터를 가서 “나한테 왜 복지를 안 해주냐.” 이렇게 또 문제를 일으켰던 사건도 기억이 나고, 최근에 로맨스 스캠이라든가 또는 비디오나 오디오 피싱 같은 조직 범죄에 활용되는 측면도 우려스럽기도 하고요. 우리는 또 지방선거가 앞에 있다 보니까 아무래도 이 주권을 교란하는 행위가 있을까 봐 우려스럽기도 하는 등, 이 모든 것들은 결국 신뢰 자본을 파괴하는 행위니까 꽤 걱정스럽긴 합니다.

◆ 김영민 : 맞습니다. 특히나 유튜브 같은 데 보면 노년층을 대상으로 한 AI 정보 전달, 그런 채널들이 요즘 양산형으로 많이 보이는 것 같은데 그게 찍어내는 정보다 보니까 가짜 뉴스도 많고 말씀하신 것처럼 주민센터에서 고생을 하고 계시다는 얘기를 저도 듣기는 했습니다. 가장 최근에 늑구가 탈출했을 때 가짜 사진 사건의 경우에는 그 사진이 공식 재난 문자와 소방 브리핑에까지 그대로 쓰이는 정말 참사가 있었는데, 이제는 그렇게 쉽게 분간할 수 없을 정도로 너무너무 교묘하고 정교해진 거죠?

◇ 최병호 : 그렇죠. 최근에 AI 같은 경우에는 과거와 달리 물리 법칙을 학습을 하고 있어요. 사람이면 당연히 물리 법칙은 아는 건데 AI는 그렇지 않거든요. 그러다 보니까 물리 법칙을 공부한다는 것은 공간과 시간 등 복잡한 맥락을 얼마나 이해하고, 그다음에 이미지라든가 영상에 반영할 수 있느냐고 하는 것인데, 그 수준이 점점 높아지고 있는 거예요. 결국 실제와 구분하기가 상당히 어려워지고 있는 상황인 데다가, 최근에는 딥페이크를 탐지하는 기술도 있는데 이 기술이 나오면 이걸 우회하도록 별도로 훈련을 또 시켜요. 그 대표적인 것이 아티팩트(Artifact)라고 그래서 픽셀이 깨지는 현상들이 있는데 그걸로 잡아낸단 말이에요. 그걸 우회하도록 훈련을 시키고 있어서 잘 안 잡혀요.

◆ 김영민 : 아, 그렇군요.

◇ 최병호 : 더더군다나 이런 기술이 정교하지 않다고 하더라도 시간의 압박이 있는 경우라면 정밀하게 판단할 여력이 안 생기죠. 그러다 보니까 전파에 신경을 쓰게 될 것이고요. 결국은 이 말은 더 고도의 AI가 딥페이크를 판별하는 시스템으로 가야 된다고 하는 시사점을 우리한테 알려주고 있는 것이죠.

◆ 김영민 : 네, 맞습니다. 그 시간의 압박이 이번 늑구 사태 때도 어느 정도 작용을 했던 것 같기도 하고요. 이뿐 아니라 최근에 있었던 충격적인 사례 얘기 한 번 더 해 볼게요. 서울 구로구청의 한 간부 공무원이 AI로 부하 직원과 연인 사이인 것처럼 꾸민 사진을 자신의 SNS 프로필에 올려서 재판에 넘겨진 사건입니다. 이 AI를 활용해서 이런 범죄를 저지르는 것, 교수님 어떻게 보셨습니까?

◇ 최병호 : 일단 이 부분은 인간의 뇌의 정보 처리와 관련이 있는 것 같아요. 인간의 뇌의 정보 처리는 이성보다는 감성에 최적화돼 있어요. 텍스트보다는 이미지, 또는 이미지와 텍스트가 결합됐을 때 특히나 인간이 이런 어텐션(Attention)에 해당하는 것이 자동적으로 이끌리는 상황이 되는데 이런 사랑 같은 어떤 서사나 이미지의 경우에는 더욱더 그렇거든요. 더더군다나 이런 것들은 특히 사회적인 낙인 효과까지 있다 보니까 상황을 더 피해자에게 위태롭게 전개되는 상황으로도 볼 수 있는 것이죠.

◆ 김영민 : 네, 맞습니다. 이 두 가지 사건과 관련한 피의자들은 모두 법적인 처벌을 받게 될 것으로 보입니다. 늑구 가짜 사진 유포자는 위계에 의한 공무집행방해로 검거가 됐고, 구로구청 공무원은 성폭력처벌법으로 기소가 됐습니다. 처벌 수위는 적절하다고 보십니까?

◇ 최병호 : 글쎄요. 이게 원인과 결과를 구분해서 볼 필요는 있을 것 같은데, 일단 결과를 보면 일단 공권력이 낭비됐고요. 심지어는 휴교령까지 내려졌잖아요.

◆ 김영민 : 맞아요.

◇ 최병호 : 이런 게 언제 생기냐면 거의 생화학 테러급 정도 생겼을 때 발생하는 일들이거든요. 이거는 결국 AI를 악용해서 국민들을 기만했거나 인격을 살인하는 등의 차원에서 접근할 필요가 있는데, 이 관련된 법은 아직은 취약한 걸로 보여요. 특히나 온라인 같은 경우 우리가 망각하기 쉬운 것이 네트워크 효과가 굉장히 강력하거든요. 전파 속도라든가 범주가 상상을 초월하고 심지어는 삭제도 어려운 상황인 데다가, 마치 스노볼처럼 시간이 흘러갈수록 사회적 비용이 점점 증가하기도 하고 어떤 경우에는 아예 돌이킬 수도 없는 상황이 되기도 합니다. 그런데 아직까지 국내법은 이런 온라인 특성들을 잘 반영을 해서 접근하지 못하고 있는 것 같아요. 거기에다가 AI 리터러시도 아직은 취약하다 보니 이걸 강화할 수 있는 형태의 캠페인도 필요해 보이고요.

◆ 김영민 : 맞습니다. 이 질문을 드리면서 개인적으로 이런 부분이 궁금했습니다. AI로 인한 범죄를 저지른 건데 처벌을 할 때는 기존에 존재하는 법으로 혐의를 씌울 수밖에 없지 않습니까? 그러다 보니까 말씀하신 것처럼 그 원인과 결과가 조금 언밸런스하게 느껴지기도 하거든요. 그래서 이렇게 AI로 인한 범죄가 기존 법으로 처벌되는 것에 대해서는 어떤 입장을 갖고 계세요?

◇ 최병호 : 잘 매칭이 안 되죠. 우리 사회는 늘 언매칭이 문제인 건데, 온라인 특성에 해당하는 것과 그다음에 결과의 파급력 등을 고려해서 여기에 적합한 법이 필요해 보입니다. 현재는 다른 법들을 끌고 와서 적용을 하고 있긴 한데, 그러다 보니까 사실상 ‘아, 그러면 내가 하는 행위 자체가 어떤 법과 관련돼 있지 않구나.’ 또는 어떤 도덕적 특성 등에 대한 것들이 상당히 방관으로 흐르면서 그냥 장난이나 또는 자기의 욕망을 해소하는 형태로만 접근하는 위험성이 있는 거죠.

◆ 김영민 : 맞습니다. 이런 취약한 상태의 법 구조가 있는 상태에서 온라인에서는 빠르게 정보 파급 효과가 나타나고 있고, 자극적이고 재미있는 정보일수록 더 빠르게 퍼지고 사람들이 그걸 진짜라고 생각했든 AI인 걸 알았든 막 퍼나른단 말이에요. 그러면 최초로 AI로 허위 사실을 유포한 사람에 대한 처벌은 이루어지고 있는데, 이걸 퍼나르고 가짜 뉴스를 더더욱 확산시키는 사람들에 대해서도 처벌을 해야 될까요?

◇ 최병호 : 그건 더 복잡한 문제로 보이는데 왜냐하면 통상 우리가 가장 중요하게 접근하는 것들은 의도성이거든요. 물론 의도가 아니어도 결과 자체가 참혹하다면 우리가 재고를 해 볼 수 있을 것 같은데, 지금까지 우리가 가장 중요하게 생각하는 것이 ‘악의적이냐’라고 하는 것이거든요. 그런데 그 악의적이라고 하는 부분에 결국 결과에 해당하는 사회적 파급 효과까지 우리가 얼마나 재고할 것이냐고 하는 부분이 필요하거든요. 결국 그 말은 얼마나 사회가 성숙했느냐에 따라 달라요. 그건 결국 커먼 센스(Common Sense), 상식에 해당하는 얘기인데 커먼 센스가 달라지면서 이런 문제가 계속 생기고 있는 것 같거든요. 그만큼 사회 성숙도가 낮아지는 상황이 되고 있는 게 아닌가 우려스럽죠.

◆ 김영민 : 우리 사회가 조금 더 성숙할 필요가 있겠다는 메시지 던져주셨습니다. AI로 늑구 이미지를 합성한 40대는 “재미로 그랬다”고 진술을 했어요. 근데 단순히 정말 재미로 하는 사람들도 있을 순 있겠죠. 그런데 이런 AI 가짜 뉴스 생산이 단순히 재미로 하는 개인의 일탈을 넘어서는 경우도 많은 게 문제인 것 같은데요. 조직적으로 이걸 수익화시키는 사례도 나타나고 있고, 그런 세력이 점점 더 발전하는 듯한 모습이에요. 어느 정도 수준까지 와 있다고 보면 될까요?

◇ 최병호 : 일단 이 모든 사태는 결국은 돈과 관련돼 있기 때문에 발생하는 문제로 보여요. 소셜 미디어에서 하나의 새로운 수익 모델인 거죠. 그 수익 모델은 트래픽으로 나타나고요. 트래픽으로 나타나려고 하면 결국 자극적이어야 되거든요. 그리고 짧은 시간에 많은 양들로 승부를 걸어야 되는 상황이에요. 그러다 보니까 팩트 체크라고 하는 것을 정상적으로 하는 어떤 도덕적, 윤리적인 접근들을 굉장히 배제할 가능성이 매우 높고, 설사 그런 의지가 있다고 하더라도 AI에게 맡겼을 때는 할루시네이션(Hallucination, 환각 현상)이 당연히 발생할 수 있는 것인데 그런 거를 고려하지 못하는 상황이 있을 수도 있습니다. 그게 악의적인지 또는 아예 챙기지 못한 것인지에 상관없이 발생할 수 있는 문제고요. 최근에는 더 큰 문제는 이것을 조직 범죄에 악용하고 있는 것이죠.

◇ 최병호 : 예를 들자면 로맨스 스캠이라든가 마약이라든가, 요즘에 그런 조직들이 이거를 전부 다루고 있다 보니까 더 큰 문제로 생각이 들어요. 한 번 엮이면 그 사람이 모든 걸 포기할 때까지 전개하는 거라서 이것이 단순 영상으로 끝나지 않는 상황이 발생한 것이고요. 최근에는 이러한 특정 이미지 자체가 어떤 사회적 현상을 나타내면서 주식 시장까지 교란하면서 불법적인 이득을 챙기는 수법까지도 등장하고 있는데, 사회적인 여러 가지 일탈들을 발생시키고 있다고 봐야 되는 거죠.

◆ 김영민 : 그렇습니다. 그러면 이런 일이 발생하지 않게 미리미리 단속을 하면 좋을 텐데, 그런 AI 툴들이 해외 법인의 것인 경우가 많다 보니까 현행법으로 대응하기에는 한계가 있어 보이는 것도 현실이거든요. 법적으로 어떤 부분이 가장 취약하다고 보십니까?

◇ 최병호 : 이 부분은 아직까지는 굉장히 어려운 난제에 속하는 경우인데, 특히 오프라인 범죄 같은 경우는 인터폴이 있듯이 사이버 범죄에서도 그런 게 필요하거든요. 근데 그런 부분이 잘 갖춰져 있지가 않아요. 특히나 해외 AI 기업 같은 경우에는 수사 협조를 해야 되거든요. 그런데 이게 협조라고 하는 것 자체가 굉장히 어려워요. 예를 들면 미국 같은 케이스 같은 경우에는 그렇게 요청을 하면 일단 ‘수정헌법 제1조 표현의 자유’에 해당하는 거냐고 얘기를 하기 시작을 하거든요. 그런데 표현의 자유라고 하는 것 자체의 해석이 다르다 보니까 상당히 어려워요. 웬만한 경우에는 다 그게 표현의 자유라고 해석을 해 버려요.

◆ 김영민 : 우리나라보다 훨씬 더 관대하게 보지 않습니까?

◇ 최병호 : 관대하다고 봐야 될지 문제가 있다고 봐야 될지는 모르겠는데, 예를 들자면 표현의 자유라고 하는 건 소위 주권과 인권에 대한 문제라고 해석을 해야 되는데 그렇게 해석을 하지 않는 경우도 있고 또 정치적으로도 편향적으로 해석할 수도 있다 보니까 다소 위험한 상황이 돼서 처음에 공조 협조하는 것 자체가 난항이 되는 상황이 발생을 하기도 하고요. 그래서 아까처럼 인터폴처럼 국제적인 사이버 공조 조약 같은 게 필요한데 아직까지 그건 더 많이 가야 되는 부분이고, 그래서 우리가 참조할 수 있는 건 유럽 같은 케이스이거든요. 더 강력한 규제가 유럽처럼 필요한, 기술의 원산지가 어디든 간에 해당 국가에서 서비스하려고 하면 우리 법의 강력한 규제를 받아야 된다는 이런 접근들이 유럽의 방식인데 우리도 그런 케이스가 필요해 보이기도 하고요.

◆ 김영민 : 그렇군요. 유럽의 케이스를 조금 더 살펴보면 좋겠다는 지적이셨습니다. 이런 이슈들이 반복이 될 때마다 우리가 늘 얘기하는 게, 앞서서도 자유에 대한 얘기가 나왔지만 ‘표현의 자유 영역이다’ 아니면 ‘규제를 해야 되는 영역이다’ 이 부분이 첨예하게 부딪힙니다. 균형점을 잘 맞춰야 될 것 같은데 어디에 더 방점을 둬야 될까요?

◇ 최병호 : 이거는 그 사회의 성숙도나 상식의 영역과 관련돼 있어요. 저 같은 경우에는 표현의 자유라고 하는 건 주권과 인권과 관련돼 있는 게 아닌가. 이것을 침해한다 그러면 문제가 생길 것이라고 보는 것인데, 이때 이 부분의 기저에 깔려 있는 것은 있는 걸 그대로 인정하는 생각이거든요. 예를 들면 얼굴색이라든가 그 사람의 성별이라든가 또는 태어난 국가라든가 이런 것들은 내가 바꿀 수 없는 거기 때문에 그런 게 인권의 개념인데, 그런 것들에 대한 공감대가 있는 상태에서 문제가 생기는 걸 접근을 해야 되거든요. 그래야 차별이 있다고 생각을 하고 규제를 할 수 있는 것인데 그런 생각이 없으면 이 문제가 되거든요. 이런 것들에 대한 생각이 균형추와 관련돼 있는 게 아닌가 생각이 들고요. 또 한 가지는 그 규제라고 하는 것 또한 기술적으로 보면 AI의 워터마크라든가 라벨링을 한다든가 하는 부분도 기술적으로 들어갈 필요도 있고요. 국내법 같은 경우는 이미 들어갔기 때문에 그런 것들을 더 국제적으로 같이 해서, 그런 게 하나의 글로벌 상식이 되고 그런 것들은 표현의 자유와 무관하게 작동할 수 있다고 하는 부분에 이해가 필요한 거죠.

◆ 김영민 : 전 지구적 각 국가는 규제를 마련할 필요가 있고 기업들도 자정적 노력을 할 필요가 있는데, 이 콘텐츠를 마지막 최종적으로 소비하는 건 개인 소비자이니만큼 개인의 역할도 빠질 수가 없을 것 같습니다. 교수님께서 요즘 ‘제로 트러스트(Zero Trust) 시대’ 이렇게 표현을 하셨는데 이 AI 시대 미디어 리터러시, 어떤 부분이 가장 중요하다고 보십니까?

◇ 최병호 : 이게 참 그 기술 때문에 생기는 현상들을 어떻게 우리가 접근할 것이냐의 문제거든요. 그런데 지금은 딥페이크 같은 기술들은 육안으로 확인하기가 어려운 상황이 된 거예요. 그러면 우리가 어떤 태도를 취할 것인가 하는 것인데, 일단 모든 것을 의심하는 태도를 가져야 되거든요. 이렇게 말하면 다소 이해가 어려울 수 있어서 이걸 더 세련되게 ‘과학자 정신’이라고 생각해 볼 필요가 있어요. 과학자 정신은 모든 거를 처음에 다 부정하고 의심합니다. 그래서 가설을 수립하고 검증하고, 그래서 마침내 모든 사람들이 검증에 통과됐을 때만 그것을 수용하는 건데 그 태도가 우리한테 필요하다. 다만 문제는 이것은 인지적으로 상당한 에너지를 써야 돼요. 즉 지속하기 어렵다는 뜻이 됩니다. 그렇기 때문에 이런 생각들을 우리가 얼마나 내재화할 것이냐고 하는 건 AI 리터러시와 관련돼 있어요.

◇ 최병호 : 그래서 이건 지속적인 캠페인이 필요한 상황이 되는 거고, 결국 그 말은 현실적으로 접근했을 때는 AI와 공조를 해야 된다는 뜻이 되는 겁니다. 사람의 의지만 가지고 되는 게 아니라 내가 AI 툴을 가지고 이게 정말로 팩트 체크를 할 수 있는 것이냐고 하는 걸 확인하고 접근을 해야 되는 거거든요. 우리가 흔히 말하는 “최초의 출처가 어디냐, 어떤 맥락에서 나온 것이냐.”라고 하는 것을 AI와 사람이 같이 공조해서 접근할 필요도 있고, 할루시네이션이 발생할 수도 있는 거라서 그것까지도 고려해서 접근하는 지혜가 필요한 거죠.

◆ 김영민 : 개인은 비판적 태도를 갖추고 그를 위해서 활용할 수 있는, 검증할 수 있는 AI 툴의 개발도 꼭 필요하다는 말씀해 주셨습니다. 오늘 말씀 고맙습니다.

◇ 최병호 : 네, 고맙습니다.

◆ 김영민 : 지금까지 최병호 고려대학교 휴먼 인스파이어드 AI 연구원 연구교수와 함께 이야기 나눠봤습니다.
HOT 연예 스포츠
지금 이뉴스