사회

5년전 경찰이 도입한 AI CCTV, 왜 광주 여고생 살인은 못 막았나

2026.05.11 오후 02:59
YTN 라디오(FM 94.5) [YTN ON-AI RADIO]

□ 방송일시: 2026년 05월 11일 (월)
□ 진행: AI 챗봇 “에어”
□ 보조진행: 김우성 PD
□ 출연: 〈AI 매터스〉 이종철 수석 에디터

아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.



◆ 김우성: 네, 어딜 가든 "AI를 적용한다"라고 얘기를 해요. 그리고 "AI 기술을 활용해서 치매 노인이 길을 잃었는데 30분 만에 발견했다." 이런 미담 뉴스 있잖아요. 그런 뉴스가 더 많아졌으면 좋겠습니다. 지금 청송 주왕산에서도 초등학생이 실종돼서 경찰과 관계 당국이 수사를 하고 있고요. 오늘 저희가 6분짜리 미니 다큐로 만나본 이 슬픈 이야기, 부모나 혹은 여성분들은 많이 경험하실 거예요. 여성분들뿐만 아니라 남성분들도 밤에 길을 걷다가 흉기를 든 사람 만나면 답이 없죠. 이런 상황을 "AI는 도와줄 수 없을까?"라는 고민이 있는데요. 그래서 AI가 유용해, 유용하지 않아, 이렇게 따지려는 게 아닙니다. 이 질문을 넓혀서 정말 우리가 AI를 아주 잘 활용할 수 있는 그 방법을 찾아야겠죠. AI 전문 매체입니다. 〈AI 매터스〉의 이종철 수석 에디터, 오늘도 스튜디오에 나오셨습니다. 어서 오십시오.

◇ 〈AI 매터스〉 이종철 수석 에디터 (이하 이종철): 네, 안녕하세요. 반갑습니다. 이종철입니다.

◆ 김우성: 앞에 저희 다큐 보셨죠? 방식이 뭐랄까요? 익숙하면서도 아직 낯선 분들도 있는데, 전문가 이야기를 모아서 저희가 가상의 전문가가 말하듯이 했거든요. 어떻게 보셨나요?

◇ 이종철: 굉장히 인상 깊게 봤고요. 방송국에서 많이 쓴다고 듣긴 했는데 이렇게 완벽할지 몰랐습니다.

◆ 김우성: 그럼에도 불구하고 저희가 이렇게 했던 이유는, 조금 뭐랄까요? 이 사안을 더 깊이 있게, 그다음에 본질에 가깝게 청취자분들이나 뉴스 소비자분들이 이해하셨으면 해서 만들어 봤습니다. 그래도 전문 매체에 계시니까 "아, 이건 조금 개선하면 좋을 것 같은데요." 이런 부분도 있을 것 같은데요.

◇ 이종철: 개선할 여지가 별로 없다고 봤는데, 저는 그런 생각을 했습니다. 이게 너무 완벽한 게 반대로 단점이 될 수 있겠다. 예를 들어서 제가 예전에 팟캐스트 녹음하는 회사에 잠깐 다녔었는데, 프로파일러 분들 녹음하시는 거 많이 봤거든요. 근데 프로파일러 분들 막 너무 감정이 격해지셔서 욕도 하고, 막 우는 분도 계시고 그러거든요. 그게 이유가 물론 방송에는 그 장면이 나갈 수 없지만 분하신 거예요. 그때 그 사람을 못 잡았던 거에 분하고, 이 시간이 지나서 다시 분석을 해도 다시 화가 나고. 그러다 보면 방송에 쓸 수 없는 멘트들이 나오기도 하거든요. 근데 반대로 시청자분들한테는 그런 부분이 더 감동이 될 수가 있어서요.

◆ 김우성: 아주 중요한 부분을 짚어주셨어요. 인간의 공감 능력뿐만 아니라 이걸 듣는 사람의 마음까지도 같이 공명할 수 있는, 같이 울릴 수 있는 방식이어야 되는데 AI는 본인이 준비한 것만 깔끔하게 끝내는 스타일이니까 그렇습니다. 본격적으로 오늘 질문으로 넘어가 볼게요. 'CCTV 세상'이라고 할 만한 대한민국입니다. "누가 대한민국이 시민의식이 뛰어나 카페에서 핸드폰 올려놓고 가도 아무도 안 훔쳐가." 이러는데, 또 반대쪽에서는 "야, 대한민국의 CCTV가 얼마나 많이 깔려 있는데." 이렇게 얘기하시는 것도 같은데, 이것도 AI 기술이 많이 접목됐죠?

◇ 이종철: 네, 'AI CCTV'라는 항목이 나오면서 비추고 있는 걸 판단할 수 있는 CCTV들이 등장하기 시작했습니다.

◆ 김우성: 네, 어떤 사례가 있습니까?

◇ 이종철: 예전 딥러닝 시절부터 있긴 있었는데요. 예전에 영국 같은 경우에는 이 딥러닝 시절에 AI CCTV를 도입했다가 오탐률이 90%인가 나오는 바람에 철회를 한 적이 있고, 최근에는 서울이나 전남, 광주 이런 데서 AI CCTV를 적용 중입니다.

◆ 김우성: 예, 그러니까 앞서도 저희가 AI를 통해서 설명을 했지만 이런 경우도 있더라고요. 어떤 범죄자가 단서를 남기고 갔을 때, 예전에는 흐릿하면 윤곽 정도만 보이고 옷 색깔 정도도 보일랑 말랑하면 아, 이거 사실상... 이랬는데, 요즘은요, 그 사람의 걷는 패턴을 인식해 가지고 찾아내더라고요.

◇ 이종철: 네, 맞습니다. 걷는 패턴, 그리고 어디서 나타나는지, 무슨 옷 입었는지 이런 거를 다 식별을 할 수 있는 게 현재의 AI CCTV입니다.

◆ 김우성: 맞습니다. 여러분, 그래서 범죄를 막고 비극을 막을 수 있는 데 쓰면 좋을 것 같습니다. AI CCTV라는 게 정확하게 들어보시면 무슨 말인지 알 텐데, 행동이나 방금 얘기한 것들뿐만 아니라 여러 가지를 다 분석해 내나요?

◇ 이종철: 네, 행동도 분석하고요. 이동 경로 같은 것도 당연히 추적할 수 있고 서성인다거나 어디서 자꾸 나타난다거나 이런 패턴을 인지하고 대응을 할 수 있는 게 AI CCTV라고 볼 수 있습니다.

◆ 김우성: 아니, 근데 보니까 싸움도 이렇게 딱 AI로 캐치를 해요. 그러니까 몸싸움 같은 경우 그게 범죄일 수도 있고, 막을 수 있잖아요. 관제 센터로 보내서 "어, 이거 이상해. 이거 범죄인지 아닌지 봐." 이렇게 하고 사람한테 알려주는 건데, 수석 에디터께서도 그러셨겠지만 저도 중학교 때 친구들하고 막 "야!" 하면 오해할 수도 있잖아요. 그런 정확도가 있을까요? 어떻게 보세요?

◇ 이종철: 정확도는 지금 경찰청에서 도입한 사례로는 90%가 된다고 하는데요. 이거는 PD님이 말씀하신 것처럼 싸우는지 그냥 장난치는 건지를 알 수가 없기 때문에 이런 부분은 빼놓고 생각을 해야 된다고 저는 봅니다.

◆ 김우성: 예, 그리고 저희가 안타깝게 생각하는 광주 사건, 어떻게 이거는 저희 오늘 준비된 질문 내용은 아닙니다만 사건 뉴스 보셨을 때 어떠셨어요? 너무 안타깝지 않나요?

◇ 이종철: 너무 슬픈 사건이라고 저도 생각을 했습니다.

◆ 김우성: 예, 왜냐하면 그날 아침에 학교 가는 아이를 바라보면서 부모도 아이도 전혀 예상하지 못한 비극이 벌어졌기 때문인데, 그냥 산책하는 사람의 평범한 배회로만 보였을 거예요. 이 장 모 씨, 범죄자. 흉기를 들고 이틀 동안 그 거리를 다녔다고 하는데 AI를 통해서 이런 걸 구분할 수 있을 가능성이 있어 보입니까? 어떻게 판단하세요?

◇ 이종철: 가능성이 있지만, 그 가능성으로 무조건 범죄를 막을 수 있다, 이런 건 아니고요.

◆ 김우성: 지금으로서는 완벽하지 않군요.

◇ 이종철: 네. 이게 사람이 파악해도 어려운 거였기 때문에, AI가 사람이 훈련시키는 데이터를 먹고 자라는 거기 때문에 AI라고 해서 완벽하게 범죄인지 판단할 수는 없는 거고요. 그리고 또 인권 문제로 또 범죄로 판단해도 안 되는 거고요.

◆ 김우성: 그렇죠. 만약에 범행을 저지르려고 거기를 계속 배회하지 않고 그냥 그 시간에 운동하시는 분들도 있잖아요. "저분이 3일째 저 자리에서 똑같이 걷네."라는 걸 범죄 신호로만 볼 수는 없을 것 같습니다. 이게 한계가 있다는 거를 얘기해 주셨고요. 최근에는 AI의 좋은 점이 그런 걸 판단 내리기보다는 잘 확인해서 사람들한테 뭔가 설명해 주거나 해석해 주는 영역도 있다고 해요. 어떤 겁니까?

◇ 이종철: 네, 맞습니다. 기본적으로 '비전 언어 모델'이라는 거는 이 상황 자체를 언어로 인식하고 있는 겁니다. 어떤 사람이 저기서 자꾸 배회한다, 뭔가 패턴이 이상하다, 이런 거를 예전에는 범죄 영화 보면 사건이 터지면 CCTV를 사람이 다 돌려봐야 되잖아요. 그거를 AI가 파악하고 있다가 뭔가 이상하다 싶으면 사람한테 먼저 알림을 주는 시스템이죠.

◆ 김우성: 비전 언어 모델, 즉 보이는 영상을 언어화한다는 거잖아요. 그러면 어떤 사건이 있을 때 급하게 검색할 때 만약에 지금 주왕산에 초등학생 아이를 잃어버렸잖아요. 그러면 만약에 그런 AI CCTV라고 한다면 '어린아이'라고만 치면 관련된 영상만 쫙 재빨리 찾아서 주겠네요.

◇ 이종철: 네, 어린아이, 그리고 어떤 옷을 입은 어린아이, 이런 것들을 빨리 색인화해서 사람한테 알려줄 수가 있죠.

◆ 김우성: 그러면 범죄 예방이나 피해 회복 혹은 구조에 어떤 이점이 있는 겁니까?

◇ 이종철: 이게 사람이 직접 보면 '골든타임' 이걸 놓치게 됩니다.

◆ 김우성: 돌려보는 동안에 시간이 있으니까요.

◇ 이종철: "이틀 지나버렸다.", "사건 이후에 이틀 지나버렸다." 그러면 상당히 위험해지죠. 그런데 AI가 찾아주면 5분, 10분 안에 비슷한 사례들을 찾아서 지금 사건이 어느 정도 진행됐고, 차가 범죄 차량이 있다고 그러면 차가 지금 어디 있고 어디를 지나갔고 이런 거를 다 알려줄 수 있기 때문에 이 수사의 골든타임을 지킬 수 있는 게 장점입니다.

◆ 김우성: 여러분 CCTV 보는 동안에 만약에 한겨울이다, 영하 20도다, 그러면 이틀이면 보통 사람은 생존하기 힘든 상황이에요. 이런 걸 줄일 수 있다는 장점이 AI와 비전 언어 모델이라고 해서 영상을 언어화해서 빨리 찾을 수 있는 거고, 이것뿐만 아니라 범죄에 대한 얘기도 너무 안타까워서 더 해봐야 될 것 같아요. 미리 예측한다는 게 아직은 어렵다, 어려운 측면이 있다고 했지만, 이번 사건 같은 경우 피의자가 자살을 생각하다가 확장 자살이라고 약자를 골라서 범행을 저지른 겁니다. 이 속마음을 챗봇에 털어놓거나 얘기를 하거나... 요즘은 보면 포렌식 하면 다 AI 검색 기록을 보더라고요. 독극물 살해 사건도 그렇고요. 이런 것도 비슷한 사건 사례가 있다고요? 해외에서.

◇ 이종철: 네, 올 2월에 있었던 캐나다의 텀블러를 이용한 총기 사건이 비슷한 사례였습니다. 이 가해자가 범행 8개월 전부터 챗GPT에 범행 계획을 계속 털어놨었어요. "어떻게 하는 게 좋을까?" 이렇게 의논도 하고. 그래서 오픈AI 챗GPT도 이 사람을 위험군으로 분류하기는 했습니다.

◆ 김우성: 인지했군요. AI 엔진 자체에서.

◇ 이종철: 네. 그런데 사법 당국에 통보를 하지 않은 거죠. 그래서 실제로 총기 사건이 났고 8명인가가 사망했습니다.

◆ 김우성: 이게 애매한 문제가 있어요. 왜냐하면 이용자가 이게 소설을 쓰는 건지 그냥 아무 말을 하는 건지 진짜 범행을 하는 건지는 확인할 수 없을뿐더러, 이걸 또 공개하거나 당국에 신고할 수 없는 개인정보 보호 문제 때문인 거겠죠.

◇ 이종철: 네, 맞습니다. 예를 들어서 이렇게 살인 계획 이런 거를 AI한테 물어본다고 해서 이 사람을 잡아들인다 하면, 봉준호·박찬욱 감독은 바로 잡혀갈 겁니다.

◆ 김우성: 시나리오 감독들 쓰는 거 굉장히 치밀하니까요.

◇ 이종철: 네. 그러고 저도 그런 소설을 쓰는데 누가 AI가 저를 지켜보고 있다 그러면 AI를 못 쓰게 되는 거죠.

◆ 김우성: AI를 활용해서 요새 작품 쓰시는 분들이 많아요. 왜냐하면 그 정보를 습득해서 구체화하는 거라든지 이게 되게 좋기 때문인데, 갑자기 〈마이너리티 리포트〉라는 영화, 톰 크루즈 주연의 영화에서 범죄를 미리 예측해서 범행을 막는다는 명목하에 잡아 가두잖아요. 처단하기도 하고 그게 떠오르기도 합니다. 그러면 이게 참 어렵습니다. 이렇게 AI를 활용해서 요새 얘기를 하거나 혹은 자기 심리 상담을... 여기서 '콜드 패스웨이'라고 했죠? 저희가 '냉담 경로'라고 위기가 드러나지 않는데 자기 자신만 알았는데, 대개는 AI랑 요새 많이 대화를 하거든요. 사람들이 외롭거나 고립된 사람일수록. 그거를 알면 안전한 사회를 위해서 최소한의 어떤 정보를 줘야 되는 건지 아닌지, 이건 굉장히 윤리적 판단의 영역인 것 같아요. 어려워요.

◇ 이종철: 네, 어렵습니다.

◆ 김우성: 어떻게 보면 좋을까요?

◇ 이종철: 이게 한국전자통신연구원(ETRI) 인공지능안전연구소 김명주 소장이 어떤 인터뷰를 한 적이 있어요. "이거를 기업 자율이 아니라 사회 안전 차원에서 공론화를 통해서 운영 방식과 신고 기준을 정해야 된다." 이런 말씀을 하신 적이 있거든요. 그러니까 기업에게 맡기지 말고 어떤 선을 우리끼리 같이 정하자, 이런 말씀인 것 같은데. 그래서 그런 내용이 사회적 합의에 도달하면 좋겠지만 도달하기가 쉽지는 않을 것 같습니다, 인권 문제 때문에.

◆ 김우성: 이게 참 AI를 사용했다는 게 범죄 도구로 볼 수 있느냐의 여부도 지금 애매하기도 합니다. 어쨌든 우리나라 경찰도 AI를 활용해서 범죄라든지 여러 가지 미리 예측하는 시스템을 쓰고 있다고요, 이미?

◇ 이종철: 네, 무려 5년이나 됐는데요. 2021년 5월부터 경찰청이 '프리카스(Pre-CAS)'라고 해서 도입한 상태입니다. CCTV를 100제곱미터 단위로 쪼개서 2시간마다 범죄 위험도를 체크하는 시스템이 있습니다.

◆ 김우성: 등급까지 나눠서요?

◇ 이종철: 그래서 방화나 이런 것까지 다 판단할 수 있고 "여기에서 지금 범죄 확률이 높아지고 있다." 이런 거를 2시간마다 판단합니다.

◆ 김우성: 그러니까 AI가 100제곱미터 단위로 살펴본 다음에 10개의 단계에 어떤 위험도를 미리 범죄 위험도를 평가하는 곳... 이 얘기하면 또 "아니, 그 사건이 일어난, 여고생 피살 사건이 일어난 곳에 그게 있었나? 그게 적용됐나?" 이런 또 질문들을 하실 것도 같아요.

◇ 이종철: 근데 광주 사건 같은 경우에는 그 징후가 거의 없이 갑자기 일어난 사건이라서 AI가 판단을 했어도 개입하기 어려웠을 거라고 저는 생각을 합니다.

◆ 김우성: AI 다큐에서 끝에 얘기한 것처럼 사회적 안전망, 그리고 연결고리를 더 강화해야 된다. 물론 직접적인 해결 방법은 아닙니다만 결국은 그 얘기다, 더 좋은 더 뛰어난 AI와 CCTV가 아니라 우리가 서로 문제를 알아차리고 그 문제를 미리 막아줄 수 있는 사람의 온기가 필요하다라는 생각이 들고요. 결국은 이게 보편화되고 더 고도화되는 것도 하나의 문제가 될 것 같다는 생각이 들어요. 그러면 AI 시스템이.

◇ 이종철: 네, 맞습니다. 이게 데이터가 편견이 있으면 그 결과도 편견으로 나오는 거거든요.

◆ 김우성: 맞네요. 네.

◇ 이종철: 미국에서도 '프레드폴(PredPol)'이라고 흑인이나 유색인종 거주 지역을 고위험군으로 분류하는 시스템이 있어요. 이거를 고위험으로 분류하는 순간 거기에 더 많은 인프라가 투입되게 되고, 그러면 범죄가 발생하는 비율보다 잡아내는 비율이 더 높아집니다. 그러면 거기는 더 고위험으로 판단이 되는 악순환이 되는 겁니다.

◆ 김우성: 실제로 시스템을 영국에서 도입했는데 흑인이 백인보다 경찰 검문을 더 받았다고요?

◇ 이종철: 네, 3.3배 더 많이 받았다고 나옵니다.

◆ 김우성: 이게 편견이 인간에게만 있는 게 아니라 AI에도 있을 수 있다는 거, 여러분 너무나 중요한 지점인 것 같아요.

◇ 이종철: 네, AI는 인간이 주는 데이터로 학습을 하는 거기 때문에요, 인간의 편견이 그대로 반영되게 됩니다.

◆ 김우성: AI가 실제 5년 전에 우리나라도 지금 '프리카스'라고 해서 경찰이 범죄 위험을 예방을 단계별로 볼 수 있는 게 도입되어 있고 한데. AI 전문 분야 이런 내용들을 취재하시면서 청취자분들... 지금 "그래서 결론이 뭐야?" 이러실 것 같아요. 들은 분들에게 약간 조언이나 마무리의 말씀, 제안 한마디 해 주시죠.

◇ 이종철: 네, AI 관제 센터는 이미 실제로 우리 곁에 와 있고요, 범죄를 잡고 예측하는 데 많이 도움이 되고 있습니다. 그런데 앞으로 어떻게 쓸 것이냐가 중요하거든요. AI도 실수를 할 수 있기 때문에 어떻게 쓸 것이냐가 중요하고, AI가 위험 신호를 주면 사람이 판단하고 법이 기준을 만들고 이 모든 단계가 다 잘 작동해야 이 AI 관제 센터가 의미가 있습니다. 이 중에 하나라도 작동을 안 하면 캐나다나 미국 사태 같은 게 발생할 수 있는 거고요. 그리고 이번 광주 사건 같은 경우에는 가해자가 어떤 흔적이 별로 없었어요. 갑자기 발생한 일이기 때문에 AI만 믿지 말고 AI가 할 수 없는 것들, 우리가 어떻게 해야 될지를 같이 고민해 보면 좋을 것 같습니다.

◆ 김우성: 여러분은 어떻게 생각하십니까? 저는 AI 매터스 이종철 수석 에디터가 얘기한 마지막 얘기가 와닿습니다. AI도, SNS도, 정신과 기록도 어떤 것도 없을 때 할 수 있는 건 결국 인간 아닌가요? 우리가 조금 더 관심을 갖고 이런 사고가 안 일어나도록 하는 것들... 참 마음이 무거워지네요. 오늘은 뭐랄까요? 신기하고 재미있기보다는 조금 더 생각할 이야기를 많이 전해 주셨습니다. 이종철 수석 에디터였습니다. 감사합니다.

◇ 이종철: 네, 감사합니다.
HOT 연예 스포츠
지금 이뉴스