전체메뉴

과학
닫기
이제 해당 작성자의 댓글 내용을
확인할 수 없습니다.
닫기
삭제하시겠습니까?
이제 해당 댓글 내용을 확인할 수 없습니다

AI 영상으로 부업해서 '쓰레기 영상' 넘쳐난다? 인공지능은 죄가 없는 이유

2026.01.05 오후 04:08
이미지 확대 보기
AI 영상으로 부업해서 '쓰레기 영상' 넘쳐난다? 인공지능은 죄가 없는 이유
AD
YTN라디오(FM 94. 5) [YTN ON-AI RADIO]
□ 방송일시 : 2026년 01월 05일 (월)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김영민 아나운서
□ 전화 : 최병호 고려대학교 AI연구소 교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.  





◆ 김영민 : 요즘 유튜브를 켜면 정말 기괴한 영상들 많습니다. “이거 사람이 만든 거 맞나?” 싶은 영상이 끝도 없이 뜨는데요. 근데 좀 헷갈리는 것도 있고, 누가 봐도 AI로 만든 듯한 영상도 있고요. 그런데 결국은 이제 그럴싸한 편집과 좀 자극적인 제목들로 포장이 된 생성형 AI 영상인 경우가 굉장히 많아요. ‘양산형 저품질 영상’이죠. 그리고 앞서서도 저희가 얘기를 했더니 “새 계정으로 유튜브 추천 영상 500개 분석하면 약 20%가 AI로 만든 저품질 콘텐츠가 나온다” 이런 이야기했죠. 그리고 이런 ‘AI 슬롭’ 채널들이 엄청난 돈을 벌어들이고 있다라는 씁쓸한 이야기까지 했습니다. 그런데 이런 문제가 뭐 단순히 “저질 영상이 좀 늘어났다”라는 수준이 아니라 “가짜 정보 그리고 조작 콘텐츠의 기반이 될 수 있다”는 우려가 커지는데요. 뭐 그렇다고 해서 AI를 끝까지 규제해야 한다 이렇게 말하기도 좀 애매합니다. 그래서 오늘 온마이크 시간에서 전문가분 모시고 얘기를 좀 나눠볼까 해요. AI 슬롭과 관련한 문제를 좀 현실적인 기준과 제도 설계로 풀어보겠습니다. 고려대학교 AI 연구소에 최병호 교수 모셨습니다. 교수님 안녕하십니까?

◇ 최병호 : 네. 안녕하세요.

◆ 김영민 : 네. 교수님 혹시 유튜브 자주 보세요?

◇ 최병호 : 자주 보죠.

◆ 김영민 : 그러면 그런 AI로 만들어진 영상들이 교수님 알고리즘에도 많이 뜨나요?

◇ 최병호 : 저는 많이 뜨지는 않는 것 같아요.

◆ 김영민 : 저는 많이 봐서 많이 뜨나 봐요. 아무래도 저는 “요즘 이 영상은 뭐지?” 싶은 AI로 만든 영상들이 많이 뜨는데, 최근 보도를 보면 “신규 추천 영상의 20% 이상이 AI 저질 콘텐츠다” 이런 분석도 있더라고요. 이런 AI를 이용해서 영상을 만드는 게 예전에 비해서 얼마나 쉬워진 건가요?

◇ 최병호 : 일단 그 영상을 만드는 걸 생각해 보면 이해가 쉬운데, 일단 영상을 만들려면 콘텐츠가 있어야 되고요. 그다음에 촬영을 해야 되고요, 그다음에 편집을 해야 되거든요. 그러면 이 각각 부분에 비용이 상당히 들어갑니다. 일단 콘텐츠 제작비용도 있어야 되고요. 그다음에 촬영 비용도 있어야 되고, 편집 비용도 있어야 되죠. 그런데 지금은 그러면 어떻게 하냐? 콘텐츠가 없어도 되고요, 그다음에 촬영과 편집이 없어도 됩니다. 심지어는 몇 분 안에 가능해요. 그러니까 굉장히 쉽다고 볼 수 있는 거죠.

◆ 김영민 : 근데 그럼 이런 흐름이 “앞으론 이래선 안 된다” 이렇게 보세요? 아니면 “이건 막을 수 없는 흐름이다” 이렇게 보세요?

◇ 최병호 : 일단 막을 수 없는 흐름이라고 보는 게 맞는데, 왜냐하면 일단 제작 비용이 ‘0’으로 수렴하고 있어요.

◆ 김영민 : 맞습니다.

◇ 최병호 : 그렇다는 얘기는 뭐냐 하면, 전문가가 기존에는 접근을 했거든요. 그런데 이제는 모두 다 할 수 있다는 뜻이 되죠. 더더군다나 전문성이 없어도 되는 거예요. 그러면 당연히 참여율이 증가할 것이고요. 그다음에 비용도 없으니까 거기에 맞게 수익 창출하는 것도 더 용이하겠죠. 이건 막을 수 없죠.

◆ 김영민 : 사실 저 유튜브에 그런 게 많이 뜨더라고요. “AI로 영상 만들어서 뭐 수익화를 시켜주는 걸 가르쳐 주겠다” 뭐 이런 강의 영상들도 굉장히 많이 뜨고, 요즘은 뭐랄까 부업 개념으로 “이런 AI로 만든 유튜브 채널로 수익화를 하자” 이런 사람들이 실제로 많아지는 것 같아요. 아무래도 “장벽이 낮아졌다”라는 교수님 말씀과 일치하는 것 같은데 근데 이 저품질이라고 하면 단어가 굉장히 광범위하잖아요. 뭐 어느 정도, 어떤 게 있어야 ‘저품질 슬롭’으로 판단할 수가 있는 겁니까?

◇ 최병호 : 그건 참 판단이 좀 어려워요. 예를 들자면 우리가 이걸 좀 이해하려면 스팸이란 단어를 생각해 보면 좀 이해가 쉬운데, 스팸이라고 하면은 내 이메일 계정에 광고성의 메일이 온다는 거잖아요. 여기 핵심은 내가 원치 않는다는 뜻이죠. 근데 메일에서는 이해가 쉬운데 이거를 유튜브로 바꾸면 내가 원하지 않는 영상이 온다는 뜻이 애매하거든요. 이거를 좀 이해하려면 그럼 실제로 우리가 ‘슬롭’이라고 불리는 콘텐츠가 뭐가 있는가를 보면 이해가 좀 쉬워요. 대표적으로 예수를 새우로 표현했던 ‘새우 예수’도 있고요. 아기들이 굉장히 많이 있는데 트럭에 있는 ‘아기 트럭’도 있고, 또는 AI로 만든 동물이 있는데 이 동물들이 좀 코믹하게 나오는 채널도 있고, 또는 뭐 나이키 운동화를 신고 이탈리아 언어로 횡설수설하는 상어도 있고요. 이런 걸 ‘슬롭’이라고 우리는 부르고 있는데, 그리고 또 하나 또 다른 그 섹터에 있다고 볼 수 있는 게 뭐냐 하면, 그 홀로코스트를 추모하는 가짜 영상도 있고요. 마틴 루터 킹 주니어의 목사 왜곡을 하는 영상도 있습니다. 이거를 우리는 모두 다 ‘슬롭’이라고 부르고 있어요. 그러면 전자에 말했던 것은 누구한테 피해를 주는 건 아니잖아요. 그런데 뭘 왜곡을 한 것도 아니기 때문에 누구에게는 재미가 있을 수는 있어요. 그런데 후자인 경우에는 안 그렇죠. 명백하게 왜곡할 만한 의도가 있고, 그걸로 수익을 벌고 있기 때문에 이것은 피해를 주는 거거든요. 이것이 두 개 다 섞여 있어요. 그렇기 때문에 이 부분들을 지금 ‘저품질’이라고 말하고 있는 거거든요. 이거는 제가 보기에는 두 개는 좀 구분할 필요는 있다. 오히려 전자 쪽이 너무 과도하게 많은 것도 문제이긴 하겠지만, 제가 보기에는 오히려 후자 쪽에 해당하는 것을 우리가 문제가 있는 콘텐츠라고 보고 접근하는 것이 좀 타당하지 않겠는가라는 생각이 듭니다.

◆ 김영민 : ‘슬롭’이라고 해서 “모두 다 문제다” 이렇게 말하기보다는 “조금 더 사회에 악영향을 미치는 콘텐츠들을 조금 더 우리가 규제하고, 살펴봐야 될 필요가 있다” 이렇게 말씀을 해 주신 건데, 근데 사실 그 유튜브라는 플랫폼이 자체적으로 그런 저품질 영상들은 좀 걸러내고 필터링 할 수도 있잖아요. 근데 오히려 우리의 알고리즘에 더 많이 나타나는 이유가 뭘까요?

◇ 최병호 : 일단 이 부분들은 당연히 그러니까 채널하고 개인하고 입장이 좀 다를 것 같아요. 유튜브 채널 입장에서는 콘텐츠가 많고, 그 콘텐츠가 많은 것 때문에 많은 사람들이 유입이 되면 당연히 트래픽이 높아지니까, 수익이 높아진다는 거죠. 막을 이유가 전혀 없어요.

◆ 김영민 : 아, 그렇군요.

◇ 최병호 : 개인 입장에서도 심지어는 요즘에는 이걸로 주업을 하는 사람도 있고요. 또는 부업하는 사람도 있고, 그러면 이해관계가 맞아떨어지는 거예요. 더더군다나 그 특정 세력 또는 특정한 사람에게는 선호가 있을 수 있는 거죠. 그러면 더욱더 자극적으로 접근할 수밖에 없는 상황이 발생해요. 그러니까 기술이 어느 수준이 됐는데 그 기술의 비용이 ‘0’으로 수렴하는 상태인데 심지어 특정 세력에게는 이걸 선호하게 만들면서 돈이 되는 상황. 그렇다고 하면 이것은 무한 증식으로 가는 소위 자본의 논리가 성립이 되죠. 혹자는 이거를 그래서 ‘슬롭’이라는 말하고 이코노믹을 섞어서 ‘슬롭 이코노믹’이라는 말도 하는 것처럼 이제는 “대량으로 AI가 생산한 콘텐츠가 수익으로 돌아오는 구조가 형성되고 있다”라고 평가하고 있는 거죠.

◆ 김영민 : 그러면 이런 ‘슬롭 이코노믹 현상’이 벌어지는 것은 AI 기술 발전 때문일까요, 아니면 플랫폼 구조 때문일까요? 어디에 더 무게를 두세요?

◇ 최병호 : 둘 다죠.

◆ 김영민 : 그런 것 같긴 해요.

◇ 최병호 : 그러니까 왜냐하면 기술 자체가 굉장히 쉬워졌어요.

◆ 김영민 : 맞습니다. 일반인들도 이젠 누구나 영상을 뚝딱 만들 수 있으니까요.

◇ 최병호 : 그러니까 이제 품질을 높이겠다고 하면은 지금의 경우에도 돈이 많이 들어가긴 하는데, 내가 품질을 버리기 시작을 하면 그리고 자극적이다. 그리고 이게 숏폼이야, 거의 1분 이내에 돌아가는 거기 때문에 짧게 짧게 보고 넘어간단 말이에요. 그런데 그런 부분이 사람들한테 소구가 되면 나한테 돈이 되니까 더욱 또 접근하게 되죠. 그런데 문제는 기술이 이제 시작이라는 거예요.

◆ 김영민 : 그렇군요. 그러면 앞으로는 더더욱 이런 많은 저품질 영상들이 양산이 될 텐데, 근데 또 그러면 “무한히 이 산업이 발전하니까 뭐 좋은 것 아니냐?” 이렇게 생각할 수도 있지만 반대편의 입장도 있어요. 이런 저품질 콘텐츠가 많아지면 결국 소비하는 사람들은 처음엔 재미있겠지만, 나중에는 피로도가 쌓이면서 AI 콘텐츠를 더욱더 안 보게 될 거고 결국 AI 산업 발달에 장기적으로는 부정적인 영향을 줄 것이다 이런 관측도 있거든요. 어떻게 보세요?

◇ 최병호 : 그럴 수도 있고, 아닐 수도 있습니다. 왜냐하면 그 콘텐츠 때문에 그런 것인데, 여기에서 우리가 이제 간과하지 말아야 될 건 현재 우리가 보고 있는 AI는 오픈돼 있는 인간의 지식을 전부 흡수한 상태예요. 그리고 조금만 더 시간이 흘러가면 저작권에 있는 콘텐츠도 다 흡수할 것입니다. 그러면 이 친구가 그걸 기반으로 콘텐츠를 만들 거예요. 그러면 콘텐츠 수준이 굉장히 높겠죠. 그 상태에서 사람들이 좋아할 만한 포미팅을 할 거 아니에요 그럼 “이건 저품질이 맞는가?”라는 어려움이 생깁니다. 그런데 그거에 반해서 저품질이 당연히 있겠죠. 이것이 공존될 가능성이 높아요. 즉 모든 사람이 참여를 했기 때문에 사실 처음부터 질이라고 말하는 건 어려운 거예요. 결국 사람들이 선택을 할 거기 때문에, 결국 이것은 양질의 법칙이 적용될 가능성이 매우 높다. 그 양이 엄청나게 늘어나는 건 사실일 것이고 그 사이에 질적인 팽창도 충분히 예상할 수 있는 거죠.

◆ 김영민 : 그렇군요. 사실 청취자분들이 지금 듣고 계시면서 어떤 혼란이 생길 것 같은데 “저품질이라서 피로감이 든다, 짜증이 난다” 이런 것과 이 “규제를 해야 된다”는 또 다른 차원의 얘기잖아요. 그러니까 저품질을 국가나 국제사회가 어느 콘텐츠까지를 규제해야 된다고 보세요.

◇ 최병호 : 일단 아까 ‘홀로코스트’ 같은 케이스나, 이렇게 왜곡되거나 아니면 노골적으로 피해를 줘서 수익을 챙기는 이러한 콘텐츠는 제재를 해야 되는 거예요. 그러니까 구분을 좀 해야 되죠. 그러니까 보통 우리가 일반적으로 ‘법률’이라고 했을 때 보통 의도와 행동을 말하는 건데, 의도가 악의적이고 그다음에 거기에 나오는 콘텐츠 자체도 그렇게 나왔다고 하면, 이건 명백하게 그 각국에 있는 법을 위반한 케이스거든요. 법률적 제재가 필요한 거죠. 그래서 이걸 좀 구분할 필요는 있는 것 같아요. 그러니까 단순히 즐기는 ‘엔터테인먼트 콘텐츠’하고 그다음에 그 ‘나라의 법률을 위반하는 형태의 콘텐츠’를 구분해서 우리가 소위 규제라든가 좀 더 증진한다든가 하는 쪽으로 갈 필요가 있습니다.

◆ 김영민 : 맞습니다. 사실 워낙에 저품질 영상들의 다양한 종류를 가지고 있기 때문에, 이 부분도 여쭤보고 싶은 게 요즘 굉장히 그럴듯하게 AI로 조작한 영상이나 그런 광고 영상들을 많이 보게 되거든요. 예를 들어서 가짜 전문가들이 나와서 “이 약을 3kg만 뺄 거면 이 약을 드시지 마세요.” 뭐 이런 이야기를 하는 그 사람들 전부 다 AI가 만들어낸 가상의 인간들이잖아요. 이런 뭔가 과장된 정보라든지, 가짜 캐릭터로 뭐 이렇게 전문가를 내세운다든지, 가짜 뉴스를 은밀히 살포한다든지 이런 부분에 대해서는 어떻게 보세요?

◇ 최병호 : 일단 이거는 기본적으로 사람의 속성을 잘 이해하고 있는 콘텐츠예요.

◆ 김영민 : 그렇게 보시는군요.

◇ 최병호 : 특히 한국 같은 경우에는 권위에 굉장히 약한 나라이기도 하거든요. 그러다 보니까 권위가 있는 집단에서 예를 들면 의사라든가, 어떤 법조계에 있는 인사라든가 또는 교수라든가 이런 권위가 있는 신뢰할 만한 분들이 나와서 특정한 메시지를 전달을 하면 의심하지 않고 수용하는 거예요. 그거를 잘 알고 콘텐츠를 만드는 거죠. 그러니까 처음부터 악의적인 목적이 존재하는 거예요. 그런데 거기에 이제 잘못된 메시지이거나 또는 왜곡되거나 과장됐거나 하는 메세지 전달이 돼서 수익을 창출할 가능성이 매우 높죠. 그렇기 때문에 그런 것들은 사실 해당 법률에 맞게 조치를 취해야 되는 부분들이죠. 굉장히 그건 큰 문제가 될 수 있어요. 그건 이제 소위 ‘페이크 영상’인 건데 이런 부분들은 조치를 좀 심하게 할 필요가 있어요.

◆ 김영민 : 맞습니다. 사실 최근에도 기사를 통해서 접했는데, 그런 식으로 허위 과장 광고를 한 사람들에게 처벌이 내려지는 것 같더라고요. 그런데 그 처벌은 결국 사후적인 문제이지 않습니까? 그래서 소비자나 시청자들이 사전에 그 피해를 예방하기 위해서는 이게 AI로 만들어진 영상임을 확인할 수 있으면 더 좋을 것 같은데, 개인이 하기는 좀 어려운 것 같기도 하고 시스템으로 만들려면 어떤 장치들이 있어야 되지 않을까요?

◇ 최병호 : 그 부분도 상당히 어려운 문제 중에 하나입니다. 일단 그게 AI로 만들었든, 사람이 직접 만들었든 간에 중요한 건 ‘팩트’를 체크하는 것인데, 그 ‘팩트’를 체크하는 게 쉽지가 않아요. 일단 그 ‘팩트’를 체크할 수 있으려면 그게 수량이 굉장히 한정적이어야 되거든요. 그런데 지금은 AI로 무한히 폭발적이기 때문에 불가능해요. 그 말은 무슨 얘기냐면 ‘팩트 체크’는 필요한데 사람으로는 안 된다는 뜻이거든요. 그렇다는 얘기는 결과적으로는 “이것도 역시 AI한테 맡겨야 된다”라는 얘기가 됩니다. 그러니까 ‘팩트 체크’를 할 자율 에이전트를 예를 들자면 이제 국가가 만들어서 또는 이제 국가한테 위임받은 어떤 특정한 에이전시가 이 역할을 할 필요가 있죠. 예를 들면 정보를 수집하거나 진위를 판단하거나, 또는 특정 어떤 공무원에게 리포트를 좀 한다든가 하는 프로세스를 갖추어야만이 가능한 일이 돼요. 그렇지 않으면 이것은 조치하기가 불가능에 가까워요.

◆ 김영민 : 그렇군요. 근데 일괄적으로 워터마크를 표시하는 것도 어떤 대안으로 제시가 되던데 그건 기술적으로 현실적으로 가능한 얘기일까요?

◇ 최병호 : 가능하죠. 예를 들자면 워터마크 같은 경우에 현재 기술로 봤을 때는 눈에 보이는 워터마크가 있고요. 눈에 보이지 않는 워터마크가 있어요. 그래서 일단 그걸 가지고 사람들이 “어 이건 AI로 만들었구나”라고 알 수는 있죠. 다만 “그 부분이 팩트가 맞느냐, 안 맞냐”를 알 수는 없어요. 그러니까 이제 두 가지를 잘 구분할 필요는 있는 거죠. “아 생성된 콘텐츠구나” 그런데 “어 여기에는 팩트가 맞을 수도 있고, 맞지 않을 수가 있겠구나”라고 판단하는 게 더 필요하긴 하죠.

◆ 김영민 : 맞습니다. 그렇게 유튜브 같은 곳에서 생성되는 다양한 허위 정보나, 과장된 정보, 왜곡된 정보들을 사실 우리나라에서 규제를 하기에는 유튜브라는 플랫폼 자체가 해외 플랫폼이다 보니까 규제하기에 한계가 좀 있지 않느냐 하는 얘기도 분명히 있거든요. 그러면 우리나라가 현실적으로 어떤 제재를 가할 수 있을까요? 이 해외 플랫폼에.

◇ 최병호 : 제재는 어려워요. 그렇기 때문에 협력하는 프로세스가 좀 필요합니다. 다만 이게 영리업체다 보니까 영리에 뭔가 문제가 되지 않고서는 조치를 하지 않겠죠. 그 사실은 이거는 국가와 업체의 문제라기보다는 국가와 국가의 문제일 가능성이 높아요. 그래서 이제 플랫폼이 존재하는 나라에 있는 정부랑 이 부분에 대한 공조가 일어나야 되죠. 그렇게 해서 거꾸로 압박이 들어가지 않으면 쉽지가 않습니다. 왜냐하면 영리 플랫폼이기 때문에 더더군다나 한국에 있는 것이 아니라서 조치가 쉽지가 않아요. 그래서 그런 형태의 정부 간 협조와 그다음에 정부의 협조 하에서 정부와 기업의 협력 프로세스를 갖추는 부분이 있어야만이 그나마 어느 정도의 효력이 좀 있을 수 있죠.

◆ 김영민 : 아직 갈 길이 머네요. 그런 생각이 좀 드는데 오늘 논의를 정리를 해보면 “뭐 AI 콘텐츠는 다 나쁘다” 이렇게 이야기를 하기보다는 어떤 피해가 발생하지 않도록 하는 게 굉장히 중요하고 “피해가 발생했을 때 책임을 누구에게, 어떻게 물을 것이냐?” 이런 부분들이 중요한 것 같은데요. 지금 AI 기본법 시행을 앞두고 있는데 교수님 생각하시기에 가장 현실적인 처방은 뭐라고 보시나요?

◇ 최병호 : 일단 가장 피해를 주는, 또는 악의적 의도를 가지고 악의적인 콘텐츠로 수익을 내는 이런 형태에 대해서는 규제가 필요해요. 그래서 그 부분과 그다음에 어떤 엔터테인먼트 같은 단순히 즐기는 형태 그런데 그게 “누구한테 피해를 주지 않는다”라고 한다면 이걸 구분해서 접근하는 것들이 좀 필요하다고 볼 수 있지요.

◆ 김영민 : 맞습니다. 마지막으로 청취자분들께서 이제 AI로 만들어진 영상들을 가장 현명하게 소비하기 위해서 ‘AI 슬롭 콘텐츠’를 잘 구분해서 즐기는 방법에 대해서 좀 조언을 부탁드린다면요.

◇ 최병호 : 일단 가장 근본적으로 ‘AI 리터러시’가 필요해요. 그러니까 어떤 영상이든 비판적으로 접근하는 태도가 필요해요. 그러니까 “이 부분이 맞구나, 틀리구나”를 보는 게 아니라 비판적으로 본다면 “이 콘텐츠가 왜 그런 거지?”, “왜 이러한 메시지를 전달하는 거지?”, “사실은 무엇일까?”라고 자꾸 의심하고 비판해야만 유리한 거죠. 그런데 이것을 지금 반대로 하고 있어요. 무조건 수용을 하고 있죠. 특히나 권위가 있는 어떤 캐릭터가 등장했을 경우에는 더욱더 그렇죠. 그렇기 때문에 일단 모든 영상에 대한 부분들을 그런 식으로 접근을 하면 그것이 AI로 생성을 했든, 사람이 나와서 얘기를 하던 간에 피해가 줄어들 것이다. 그리고 아까 말했던 것처럼 기본적으로 성인인 경우에는 그나마 어느 정도 커버가 가능한데, 미성년자에게는 더욱더 어렵거든요. 그러니까 미성년자에게는 이 부분에 노출을 최소화시키거나, 또는 불가피하다고 그러면 옆에서 계속해서 이거를 읽어내는 능력, 또는 비판할 능력을 양산하는 쪽으로 흘러가는 것이 우리한테 도움이 될 것이다라고 보는 거죠.


◆ 김영민 : 비판적인 사고방식, 그리고 교육의 중요성을 좀 일깨워 주셨습니다. 오늘 좋은 말씀 고맙습니다. 교수님

◇ 최병호 : 네. 고맙습니다.

◆ 김영민 : 지금까지 최병호 고려대학교 AI 연구소 교수와 이야기 나눴습니다.


YTN 김세령 (newsfm0945@ytnradio.kr)

AD

실시간 정보

AD

YTN 뉴스를 만나는 또 다른 방법

전체보기
YTN 유튜브
구독 5,260,000
YTN 네이버채널
구독 5,543,996
YTN 페이스북
구독 703,845
YTN 리더스 뉴스레터
구독 28,666
YTN 엑스
팔로워 361,512