YTN라디오(FM 94.5) [YTN ON-AI RADIO]
□ 방송일시 : 2025년 12월 16일 (화)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성 PD
□ 출연 : 정원준 한국법제연구원 AI법제팀장
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◆ 김우성 : 네. 세계 최초, 세계 최대, 동양 최대, 세계 최고, 이런 거 정말 좋아해요. 한국 사람들은 그런데 어떻게 보면 그럴 만한 이유도 존재합니다. 누구보다 빨리 따라잡으려고 하고요. 누구보다 가장 높은 곳에 올라서는 걸 환호하는 게 우리 국민이잖아요. 늦게 하면 또 늦게 한다고 뭐라 하실 겁니다. 그래서 1월 22일입니다. 세계 최초로 AI 기본법 전체 법의 이름은 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법인데요. AI로 앞으로 뭘 할지, 국민들의 생활에 어떤 영향을 미칠지를 법적인 토대를 딱 닦아 놓은 법이 이제 시행됩니다. 얼마 안 남았어요. 그런데 걱정의 목소리도 크고요. “이 법이 도대체 어떤 법인지도 모르겠다”라는 분들이 대다수입니다. 이 법을 먼저 만들려고 했었던 해외는 조금 서두름을 멈추고 있는 상황인데요, 좀 설명드리려고 오늘 이 분야 전문가 저희가 스튜디오에 모셨습니다. 한국법제연구원 정원준 AI 법제팀장님 스튜디오에 나와 있습니다. 팀장님 어서 오십시오.
◇정원준 : 네. 반갑습니다. 저는 한국법제연구원에 AI 법제팀에 있는 정원준이라고 합니다. 오늘 '인공지능 기본법' 너무 중요한 이슈인데 또 오늘 말씀 잘 나눠보도록 하겠습니다.
◆ 김우성 : 네. 그럼 법 쪽 전공이신가요? AI 쪽 전공이신가요?
◇정원준 : 저는 이제 디지털 사회에 관련된 연구들을 많이 해 왔고요. 전공은 법학입니다. 그래서 데이터나, 인공지능, 메타버스 같은 디지털 영역에서 연구들을 많이 하고 있습니다.
◆ 김우성 : 예. 먼저 AI 법제팀장이십니다. 법제연구원에서 관련 연구 동향 많이 알고 계실 텐데 유럽연합이나 다른 곳에서 AI 관련된 법들 기본 토대가 되는 기본법들 먼저 막 서둘렀던 걸로 알고 있어요. “우리 늦었다” 이런 인터뷰도 한 기억이 있는데 한국이 속도를 내고 있습니다. 배경은 어떻게 보세요?
◇정원준 : 네. 저희도 예상을 못했습니다. 이 법이 통과되리라 예상을 못했고 다만 우리나라 앞서 잘 설명해 주신 것처럼 이 법이 굉장히 오랫동안 국회에서 계류가 됐었습니다. 이제 초기 당시에는 진흥을 위한 법이었고요. 나중에 GPT가 출연을 하면서 말씀하셨다시피 “전 세계적으로 규제가 필요하지 않냐”라는 얘기가 나왔고, 그래서 진흥과 규제가 담긴 이 법이 국회에서 전격적으로 작년에 통과가 되면서 올 한 해 정말 많은 논의가 있었습니다.
◆ 김우성 : 예. 이렇게 말씀해 주신 이유가요? 저도 막 공부하려고 자료를 찾다 보니까 관련된 자료집이 있는 거예요. 그래서 “반갑네.” 이러고 봤더니 2021년 자료집이었습니다. 그만큼 준비는 오래 했는데 이제 시행되고 이게 AI가 매 순간 바뀌고 있거든요. 지금 샘 올트먼이 코드 레드를 쐈다고 아까 기사 알려드렸지만 법이 현실을 따라갈 수 있을까도 고민되면서도 봐야 될 것 같습니다. 일단 청취자분들을 위한 정리부터 여쭤볼게요. 'AI 기본법' 뭔지 설명해 주셔야 될 것 같아요.
◇정원준 : 예. 이걸 한 번에 딱 설명드리기가 쉽지는 않은데요. 일단은 우리나라의 인공지능 기본법은 크게 두 가지를 규율 대상으로 하고 있습니다. 그래서 첫 번째로는 “고성능 AI 모델” 이것은 모델 자체의 성능이 굉장히 고성능이기 때문에 인간의 어떤 의사결정이나 행동에 많은 영향을 미칠 수 있기 때문에 그 연산량을 기준으로 해서 10의 26승 이상인 경우에는 규제 대상으로 보고 있습니다. 그래서 이 모델에 대한 규제가 한 가지가 있고요. 또 한 가지는 고영향 AI 시스템 그러니까 서비스 단위에서 고영향으로 정의하는 고영향 AI에 해당이 되는 경우에는 여러 가지 법에 따라서 규제의 내용들이 의무에 들어가 있는 상황이라고 보시면 됩니다.
◆ 김우성 : 예. 앞서도 “EU도 고위험 AI에 대해서는 먼저 선제 규제하려다가 멈췄다”라고 했는데 우리는 법에 보면요. 1장 총칙의 네 번째에 고영향 인공지능이라고 돼 있습니다. 여기서는 설명을 “생명 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려” 이렇게만 표현했는데 이렇게 말하면 또 저도 그렇고 우리 라디오로 들으시는 분들, FM으로 들으신 분들은 막 일하면서도 들으시는데 정보 안 놓치시려고 “뭔 말이야” 이러실 것 같아요. 사례를 들면 편할 것 같은데 대략 어떤 거, 의료 이런 건가요?
◇정원준 : 예. 우리나라 이제 기본법에 있는 고영향은 영역을 법에서 특정하고 있습니다. 그래서 10가지 영역을 두고 있는데 대부분 국민의 어떤 생명 안전에 필수적인 영역들이고요. 의료라든가 채용, 대출 심사, 에너지 관리 같은 영역들에서 고영향을 이제 부과를 했습니다.
◆ 김우성 : 예. 중요하죠. 여러분 돈은 사회적 경제적 생명 아닙니까? 그것까지도 다 포함돼 있다라는 측면을 얘기해 주셨습니다. 그런데 지금 법제연구원에서 또 AI 법제팀장으로서 연구 활동들을 하고 계시는데 법, 그러면요 기업이나 개인들은 일단 싫어해요. 이거 오해하지 마십시오. 그쪽 종사자분을 싫어한다가 아니라 뭔가 나를 가로막을 것 같은 느낌 때문일 것 같은데 기업들이 걱정합니다. “아니 이게 아직 AI가 정확한 실체도 없는데 기준도 모호하고 뭘 하려고만 하면 다 걸려서 안 되는 것 아니야” 이런 여론이 있나 봐요. 오늘 제가 연합뉴스 기사 제목도 여러분들한테 소개해 드렸지만 어떻게 보십니까?
◇정원준 : 네. 맞습니다. 말씀 주신 대로 이 법이 과연 빠르게 발전하고 있는 이 혁신 시장을 어떻게 먼저 선제적으로 규율할 수 있을까에 대한 부분들이 있는 것 같고요. 그러다 보니까 대기업의 입장에서도 쉽지는 않습니다. 왜냐하면 대기업도 이 규제에 맞춰서 그걸 준수하고 또 서비스들을 개선해 나가는 데 있어서 굉장히 많은 의사결정들을 거쳐야 되기 때문에 쉽지 않은 부분이고 말씀 주신 대로 자본력이 없는 중소기업이나 스타트업 같은 경우에는 그 규제 자체가 명확하지 않은 상황에서 이걸 어디까지 어떻게 준수를 해야 되는지가 불명확하기 때문에 이 부분에서 굉장히 규제를 따라가는 데 있어서 어려움이 존재하는 상황이라고 볼 수 있습니다.
◆ 김우성 : 예. 그러니까 제 주변에 예를 들면 부모님이 병원에 가시면 항상 자녀가 같이 가주길 바래요. 왜냐하면 “어려워서 못 알아듣겠다”라는 거예요. 의료진들이 굉장히 최대한 설명을 해줘도 모른다. 그런것도 어르신들 그러니까 각 처한 상황에 외국인도 있을 거고요. 어린아이도 있을 거고요. “쉽게 설명해 주는 그런 서비스 개발하면 좋겠다, 그래서 다들 좋겠다” 그러는데 지금 보면 이거 고영향에 해당돼요. 의료기 때문에 그럼 이런 서비스를 개발하려던 스타트업들은 “이거 안 되는가 본데” 이럴 수도 있잖아요. 이런 정리가 앞으로 더 필요하겠죠.
◇정원준 : 네. 앞으로 그 규제들을 어떻게 만들어 나갈지는 시장에서 계속해서 많은 수요가 또 제기되기 때문에 이 법을 조금씩 변경해 나가는 부분들은 필요할 것 같습니다.
◆ 김우성 : 국회도 그렇고 정부도 그렇고 팀장님한테 많이 의존하는 바가 있을 것 같아요. 그냥 법 근사하게 쫙 만들어 놓는 것보다는 “이거 고려해 주세요”라고 조언해 주신다면 어떤 말씀을 해 주실 것 같아요.
◇정원준 : 이 부분이 다른 영역에서는 법을 만들었을 때 큰 어려움이 없었는데요. 인공지능은 말씀 주신 대로 너무나 많은 도메인에서 너무나 많은 형태의 서비스들이 있기 때문에 법이 그걸 따라서 움직여서 만든다는 게 사실상 불가능합니다. 그런데 EU 같은 경우에는 조금 융통성을 발휘해요. 옴니버스 패키지라고 해서 아시다시피 규제를 늦추고 완화시키는 법안을 발의를 했는데 그 내용들 자체가 굉장히 어떤 기업들의 수요라든가 이런 것들을 반영해 가지고 움직이려는 측면이잖아요. 그래서 그런 부분들의 유연성을 행정부가 유연하게 함으로써 가져갈 필요가 있는 상황이라고 볼 수 있습니다.
◆ 김우성 : 예. 저는 잘 몰라서 그러는데요. 그래서 질문할 때도 이렇게 항상 검색을 한번 해 봅니다. 네거티브 규제라고 하나요? 보통은 “요거만 빼고는 나머지 다 해” 이런 걸 원하는 것 같아요. 이쪽 분야에서도. 그런 식으로 발전하는 건 가능할까요? 아니면 우리나라가 지금 네거티브 규제가 제대로 되는지도 궁금하고요.
◇정원준 : 네. 우리나라에서 네거티브 규제는 항상 정부가 규제 개선 측면에서 외치기는 하는데 쉽지는 않습니다. 왜냐하면 반대 급부가 있으니까요. 우리는 이 합법인 영역이 법에서 명확하게 “이게 합법이야”라고 하지 않으면 나머지는 굉장히 불안하거든요. 사업자들이. 네거티브는 불법이 아니라고 얘기하면 다 합법인 형태로 간주를 하는 거기 때문에 우리 법상 그렇게 해석하는 건 쉽지가 않습니다.
◆ 김우성 : 맞습니다. 단순히 이렇게들 생각하실 수 있잖아요. 청취자 여러분. 사람 목숨, 재산, 관계에 해를 끼치지 않으면 나머지는 “해 봐봐, 이런 방식으로 할 수 있지 않느냐”인데 그렇게 보면요. 우회하고, 돌리고, 튀어나가고 이거는 모두의 문제입니다. 그런데 AI는 워낙 변화가 빠르니까 이런 게 필요하지 않나 해서 제가 팀장님께 여쭤봤고요. 구체적인 사례 중에 하나로 들어가 보면 앞서 제가 이제 기사 얘기했습니다만, “의사가 이 약 추천하길래 샀는데 AI 영상에 속은 어르신들” 이게 기사 제목입니다. 이거 일단 당연히 불법이에요. 여러분 진짜 의사가 아닌데 의사의 말로 한 건 아직은 우리나라 현행법상 불법입니다. 근데 이렇게 “AI로 영상 만드는 거 표시를 해야 된다”라고 했더니 영상 업계에서는 그러는 순간 소비자들이 외면하고 콘텐츠 경쟁력이 떨어진다. 이게 참 딜레마인 것 같습니다. 이거 어떻게 해석해야 됩니까?
◇정원준 : 네. AI와 관련된 규제에서 인공지능 기본법이 지금 말씀 주신 부분들을 담고 있지 못합니다.
◆ 김우성 : AI 워터마크 이런 걸요.
◇정원준 : 워터마크에 대해서는 의무를 부과하고 있지만 이제 말씀 주신 사항들은 AI를 활용해서 범죄 행위에 사용하거나, 아니면 AI로부터 산출한 산출물들을 또 다른 목적으로 사용하는 거잖아요. 그래서 AI 기본법은 기본적으로 AI 사업자가 개발하는 사업자 그걸 이용해서 서비스를 하는 사업자가 어떻게 투명성 의무를 이행을 해야 되는지에서 얘기하고 있지만, 그것을 사용하는 것에 대해서는 규정을 하고 있지는 않거든요. 그래서 지금 말씀 주신 AI를 이용해서 범죄에 사용하고 이런 것들은 개별법적으로 접근을 해야 되는 측면들이 있습니다.
◆ 김우성 : 의료법이나 소비자보호법이나.
◇정원준 : 맞습니다. 그래서 광고에 대한 것들도 마찬가지고요. 또 AI 워싱 같은 것들도 많이 문제가 되거든요 AI가 정말 가져다 쓰는 거나, 아니면은 굉장히 미약하게 포함이 되는데 그걸 과장해서 광고하는 것들도 문제가 되고요. 그리고 선거 같은 경우는 작년에 법이 개정이 돼서 선거 기간에는 유권자들의 혼란을 일으킬 수 있잖아요, AI 영상물들이. 그래서 그런 것들은 또 개별 법에서 금지를 하고 있는 상황이라고 보실 수 있습니다.
◆ 김우성 : 예. 정말 중차대한 앞서 말씀하신 사람의 삶에 영향을 미치는 것들은 꼼꼼하게 세부적인 걸 보고 있긴 한데 전체적으로는 아직은 애매한 부분이 있다 “AI로 만들면 무조건 AI 마크가 어디서든 보이게 하라” 그러면 만든 사람, 예술가적인 입장에서는 억울한 부분도 있을 수 있긴 합니다. 그리고 또 하나는 소비자 보호 측면입니다. 이것까지도 제가 사례를 들어서 말한 건데 범죄 부분과, 소비자 권익 부분을 조금 더 세부적으로 분리해서 여쭤보면 좋을 것 같아요. 범죄 피해는 일단 지금 유관 기관도 대응을 하고 있지만 굉장히 무섭거든요. AI로 제 목소리, 심지어 지금 팀장님 목소리도 방송에 노출이 됐기 때문에 똑같이 흉내낼 수 있잖아요. 이런 부분에 대해서 규제라든지 법제 차원에서 막을 수 있는 여지를 주는지 여부가 하나 첫 번째 궁금하고요. 두 번째는 소비자 권익 문제인데 AI가 이렇게 범람하면 오히려 소비자들이 이익에 취해 그러니까 피해가 되는 구분을 못 하게 되는 부분들에 대해서 법적인 보완이 필요하지 않을까요? 어떤 입장이신지 궁금합니다.
◇정원준 : 전에 말씀드린 것처럼 개별 영역에서 AI가 악용되는 사람들은 너무나 많을 수밖에 없잖아요. 그래서 말씀 주신 대로 여러 가지 악용을 막기 위해서 공직직선거법상에 아까 말씀드린 내용들이 포함이 됐고, 또 한 가지는 딥페이크를 통해 가지고 성범죄 문제들이 굉장히 많이 불거졌잖아요. 이거는 디지털 사회가 되고 또 인공지능이 콘텐츠를 재생산하고 하다 보니까 피해가 엄청나게 누적이 되는 거죠. 그래서 예전보다 정보통신망법에서도 허위 조작 정보라든가 이런 행위들에 대해서 조금 더 처벌 규정을 강화시키는 법들이 계속해서 지금 통과가 되고 있는 상황들이거든요. 그래서 그런 형식으로 범죄 행위에 악용되는 부분에 대해서는 일정 부분 통제를 하고 있고요. 근데 여기서 한 가지 살펴볼 지점은 투명성 의무라고 하는 것이 AI가 사용한다는 것을 다 표시를 한다고 하더라도 그걸 지울 수 있는 기술들도 있습니다.
◆ 김우성 : 맞습니다.
◇정원준 : 네. 그렇기 때문에 완전히 이 기술을 통제한다는 건 쉽지 않기 때문에 법이 어느 수준에서 이것을 못하게 할 것이고 어느 수준에서 기업이 투명하게 할 것인지에 대해서는 앞으로도 논의가 필요한 부분이라고 생각이 들고요.
◆ 김우성 : 맞습니다. 그러면 지금 AI 기술을 활용해서 서비스를 만들어내는 분들한테 이 법이 그분들을 대상으로 삼아서 만들어져야 될지, 아니면 오픈 AI, 구글 “너희들 기술로 사람 몸 색깔, 옷이 없는 색깔이 많이 보이거나 이랬을 때는 딱 경고를 줄 수 있는 뭔가 제도를 마련해”라고 할지 그게 대상이 명확해져야겠네요. 어떻게 보십니까?
◇정원준 : 예. 맞습니다. 그래서 지금 법에서는 한 가지 논란이 됐던 부분이 그래서 가시적인 워터마크를 붙이도록 하면 육안상 사용하는 데 조금 불쾌감을 또 줄 수가 있잖아요. 그래서 비가시적인 워터마크도 인정하자라고 하는 것이 법의 애초의 취지였거든요. 그런데 이제 시행령이 입법 예고되는 과정에서 첫 1회 정도는 명확하게 가시적으로 판단할 수 있도록 고지를 하도록 하는 규정을 뒀어요. 그래서 그런 부분들이 문제인데 저는 기본적으로는 어쨌든 AI 콘텐츠들이 결국에 유통되는 것은 플랫폼을 통해서 유통이 되다 보니까 비가시적 워터마크를 통해 가지고 AI가 생성한 콘텐츠라고 하는 것을 보여주는 비가시 워터마크도 인정하는 부분이 필요하다고 생각을 하고있습니다.
◆ 김우성 : 예. 어느 정도 융통성이 필요하다. 왜냐하면 AI잖아요. 앞으로 더 많은 미래가 남아 있는 영역이기 때문에 이런 말씀을 팀장님께서 해 주시는데요. 정원준 팀장님께서 보시기에는 지금 다른 나라들의 조금 완화된 입장이나 이런 것들을 보면 규제 환경이 엄격할수록 기업들은 힘들어 하니까요. 그 접점을 찾아야 된다는 입장이신데 기업들한테 어떻게 보면은 오히려 기회로 다가올 수 있는 대한민국의 첫 AI 기본법의 여러 요건들이나 장점들도 있을까요?
◇정원준 : 예. 충분히 있습니다. 앞서 말씀드린 대로 이 법에 어떻게 보면 규제 조항보다 진흥과 관련된 조항들이 훨씬 더 많습니다.
◆ 김우성 : 처음에 말씀해 주셨죠? 맞습니다.
◇정원준 : 그랬을 때 예를 들면 학습 데이터를 사용하는 것이 굉장히 인공지능에서 중요하잖아요. 그래서 이 법에서도 현재도 개정 법안을 벌써 준비하고 있습니다. 아직 법이 시행되기 전인데 그래서 학습 데이터를 어떻게든 정부 입장에서 특례를 부여하고 기업들이 학습 데이터를 안전한 환경에서 사용할 수 있도록 하는 법안들도 준비를 하고 있는 거거든요. 그래서 그런 부분들이 종합적으로 이제 나아갔을 때는 분명히 우리 기업에 유리하게 작용하는 부분들도 생길 거라고 생각을 합니다.
◆ 김우성 : 지금 듣고 계신 분들 개인의 관심사랑도 연결돼 있어서 저희가 길게 조금은 걱정하는 입장으로 설명했다면 우리나라에서는 AI가 아주 똑똑해질 수 있는 지능에 대한 준비도 법안으로 마련했습니다. 물론 저는 그렇게까지 하면 “그 데이터를 제공한 우리 인간들에게도 뭔가 이익이 돌아와야 된다” 요즘 해외에서도 기본소득 논의를 하더라고요. 일자리가 줄어드니까 AI가 돈 벌면, “결국은 지능 쪽으로도 조금 균형을 잡고 있다” 설명을 해 주셨습니다. 앞으로 시행이 한 달 앞인데 “일단은 과태료 부과도 1년 유예하겠다”라고 했는데 그 1년 사이에 또 법에 대한 유연성이라든지 여러 가지 변화의 가이드라인을 조언해 주셔야 될 것 같아요.
◇정원준 : 네. 제가 한 세 가지 정도를 말씀을 드리고 싶은데요. 그 인공지능 기본법에서 올 한 해 동안 굉장히 논란이 됐던 부분들이 이 법에서 그 수범 주체를 인공지능 사업자라고 정의를 하면서요. 개발 사업자와 이용 사업자를 포함하도록 하고 있습니다. 그러니까 이게 무슨 얘기냐면 개발 사업자라는 알고리즘 모델 자체를 개발한 사업자이고요, 그걸 알고리즘을 이용해서 서비스를 하는 것은 이용 사업자입니다. 그런데 여기서 또 이용자라는 개념이 등장을 하는데요, 그러니까 이를테면은 AI 진단 솔루션을 개발한 사업자가 이용 사업자라고 하면은 그것을 이용해서 환자들에게 진료 행위를 하는 의사가 이용자가 됩니다. 그리고 그러면 환자는 뭐가 되느냐라고 하면 영향을 받는 자가 환자입니다. 이렇게 규정이 돼 있는데 이 사업자들이 어떤 책무를 지는지가 명확하지가 아직 않습니다. 가이드라인이 법적 구속력이 없기 때문에 이 부분은 법률 단위에서 이용 사업자와 개발 사업자가 어떻게 책임을 지는지를 명확히 나눌 필요가 있다라고 보실 수 있을 것 같고요. 또 한 가지는 그 정보 공유 의무화인데요. 우리가 해외 모델들을 많이 쓰는 기업들이 등장을 하고 있지 않습니까? 그런데 이 경우에는 규제 준수를 위해서는 그 해외 모델 사업자가 정보들을 줘야 돼요. 그래야지만 어떤 부분에서 편향이 일어났는지 이런 것들을 확인할 수 있는데 지금은 이걸 강제하는 조항이 없기 때문에 이 부분은 조금 개선이 필요할 것 같습니다.
◆ 김우성 : 맞습니다. 이게 지금 법 앞부분에 나와 있습니다만 개발 사업자, 이용 사업자, 이용자 이런 부분들에 대한 명확한 정리가 필요하고 아니면 구글이 우리나라가 고정밀 지도 안 준다는 점을 굉장히 이용하는데 그런 문제들이 있잖아요. 이 디지털 플랫폼 쪽이 실제 내 생활에도 많이 영향을 미치기 때문에 법적인 건 마지막 보호책이기도 하면서 또 출발점이기도 하거든요. 잘 만들어져야 될 텐데 그런 논의가 아직까지는 분리돼 있는 것 같아요. 기술은 기술로 보고, 돈으로 보고, 법은 법으로 보고, 인권은 인권으로 따로 따로 보고 이걸 한 덩어리로 봐야 되지 않나요? 한 말씀 더 여쭤보고 싶어요.
◇정원준 : 예. 양자는 아무래도 영향을 미치는 게 인 것 같습니다. 그러니까 국내 기업들이 규제 때문에 해외로 떠난다는 말들도 많거든요. 특히나 일본 같은 경우는 데이터를 전면 공개하겠다는 취지에 따라서 법도 그렇게 공개를 해 놓고 있습니다. 그래서 그런 것처럼 양재는 영향을 미치기 때문에 이제 균형적으로 잘 만들어 나가는 것이 앞으로 향후에 중요할 것 같습니다.
◆ 김우성 : 우선순위를 정하더라도요. 자동차로 사람을 다치게 하면 안 된다는 일단 자동차가 개발이 완성돼야 그 다음인 것 같아요. 그런 유연함과 사회적 소통이 잘 됐으면 좋겠습니다. 역시 답은 없지만 계속 질문해야 된다가 답인 것 같네요. 오늘 AI와 관련된 기본법 이야기 정원준 한국법제연구원 AI 법제팀장 모시고 얘기 들었는데요. 법이 시행되고 나면 한 번 더 모셔야 될 것 같습니다. 오늘 말씀 감사합니다.
◇정원준 : 네. 감사합니다.
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]