[앵커]
AI 기술을 활용해 가상인간으로 만든 성적인 영상이 요즘 유튜브와 SNS 등 인터넷 공간에서 걷잡을 새 없이 퍼지고 있습니다.
그러나 실존 인물이 아닌 가상인간을 내세워 피해자가 명확하지 않다 보니 규제 사각지대에 놓여 있습니다.
권준수 기자가 취재했습니다.
[기자]
유튜브 영상에 등장한 이 여성,
교복을 입은 학생처럼 보이지만 사실은 AI가 만든 가상인간입니다.
영상 제목에는 '여학생'이라는 단어도 넣었는데, 내용은 음란물에 가깝습니다.
이처럼 가상인간을 내세워 제작한 성적인 콘텐츠는 한번 게시될 때마다 수백만 조회 수를 올리고 있습니다.
유튜브뿐만 아니라 인스타그램 같은 SNS에서도 이런 영상은 알고리즘에 의해 수많은 사람에게 노출됩니다.
실존 인물이 아닌 가상인간이 주인공이라고 해도 영상 제작자와 유포자 모두 아동·청소년의 성 보호에 관한 법률로 처벌받을 수 있습니다.
[노필립 / 성폭력 전문 변호사 : 배경이 학교 교실이고요. 배경 자체가. 그다음에 출연하는 캐릭터들이 입고 있는 옷들도 다 교복이었고요. 청소년으로 충분히 인식할 수 있어 보입니다. 제작 혐의로 처벌이 가능하지 않을까.]
그런데도 별다른 제재 없이 쉽게 영상이 유통되는 건, 가상인간은 피해자로 특정할 수 없기 때문입니다.
피해자가 없으니 신고가 이뤄지지 않고, 나이도 모르니 청소년으로 볼 수 있을지도 불명확합니다.
교복을 입고 있어도, 소녀나 학생이라는 표현이 명시되지 않으면 수사하기 더 까다로워지기도 합니다.
[임윤상 / 경찰청 사이버성폭력수사계장 : 기준이 모호한 면이 있어서 수사의 어려운 점이 사실 있습니다. 초반에는 그 정도로 기술이 발달하지 않았기 때문에 보편화 될 때까지는 조금 기간이 필요하지 않겠냐고 생각했지만, 현재 기술 속도가 매우 빠르기 때문에.]
결국, 자극적인 영상으로 상업적 이익을 얻으려는 제작자들이 규제를 피하기 위해 가상인간으로 눈을 돌린 것으로 풀이됩니다.
그러나 이런 영상이 널리 퍼질수록 현실에서도 어린이와 청소년을 성적 대상으로 바라보는 경우가 늘어날 거라는 우려가 나옵니다.
[이배근 / 한국아동학대예방협회 회장 : 팔로워를 높이기 위한다거나 목적이 있는 거 아니에요. 파급효과는 더 늘 것이기 때문에 빨리 차단돼야 한다고 생각합니다. 가상인물이 아니고 실제였다고 그러면 조금 더 조심하겠죠. 만드는 사람도.]
또, 해외에 본사를 둔 사이트에 영상이 올라가면 제작자와 유포자를 찾아내는 건 더 어려워집니다.
가상인간을 활용한 기술이 나날이 정교해지는 가운데 유해 콘텐츠에 대한 구체적인 가이드 라인 마련 등 제도 보완이 시급해 보입니다.
YTN 권준수입니다.
촬영기자 : 심원보
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]