전체메뉴

과학
닫기
이제 해당 작성자의 댓글 내용을
확인할 수 없습니다.
닫기
삭제하시겠습니까?
이제 해당 댓글 내용을 확인할 수 없습니다

AI 쓴 영상은 무조건 워터마크? AI 기본법 시행 D-2, 이것만 알자

2026.01.20 오후 01:59
이미지 확대 보기
AI 쓴 영상은 무조건 워터마크? AI 기본법 시행 D-2, 이것만 알자
AD
YTN라디오(FM 94. 5) [YTN ON-AI RADIO]
□ 방송일시 : 2026년 01월 20일 (화)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성 PD
□ 녹음 : 이원화 변호사

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.  





◆ 김우성 : 네. YTN 라디오 ON-AI RADIO 온에어의 메인 토크 시간 ‘온 마이크’ 시간입니다. 다양한 분야의 전문가와 함께 AI가 바꿀 시대 여기서 잘 안내해 드리는데요. 이런 상상 해 보셨어요? 만약에 입사 시험에서 AI를 이용해서 시험을 쳤는데 그게 불공정일 경우 처벌받을까요? 혹은 AI를 사용해서 여자친구와의 사진을 편집했는데, 나중에 헤어진 뒤에 문제가 되면 어떻게 될까요? 기업들은 이런 서비스를 적용하는 제품 혹은 서비스들에 대해서 어떤 법적인 안전이 필요할까요? AI 기본법이 세계 최초로 시행됩니다. 이제 불과 며칠 안 남았죠. 이런 상황에서 AI로 인해서 여러 법적 문제들이 생길 수도 있습니다. 다시 한 번 점검하면서요. 또 법적 문제에 대한 기본적인 안전과 여러 가지 대처에 대한 고민들 나눠드릴 수 있는 최고의 전문가 연결해 드리겠습니다. YTN 라디오 ‘사건 X 파일’로도 많은 청취자분들께 사랑받는 분이죠. 이원화 변호사 연결돼 있습니다. 변호사님 안녕하세요.

◇ 이원화 : 네. 안녕하세요. 이원화 변호사입니다.

◆ 김우성 : AI가 이제 우리 사회 곳곳에 다 들어와 있는데요. 내일 모레 기본법이 시행됩니다. 이 기본법이 시행되면 AI와 관련된 것들은 모두 법적 제도 하에서 설명이 될 텐데, 대략적으로 어떤 법인지 변호사님 소개 부탁드립니다.

◇ 이원화 : 네. 기본적으로는 인공지능의 발전을 위한 기반을 잡기 위한 기준을 마련하는 법이라고 보시면 될 것 같은데요. 더 나아가서는 인공지능의 발달로 생길 수 있는 국민의 권리 침해를 예방하고 보호하는, 크게는 인간 존엄성의 보호를 위한 기본적인 사항들을 규정하고 있는 법입니다.

◆ 김우성 : 네. 우리 사회에 많은 것들은 개인의 생활은 빼더라도 법의 제도와 법의 영향력 하에서 이루어지고 있습니다. 그럼 이게 단순히 “이거 하지 마, 저거 하지 마” 이런 내용이 아니라, AI와 인간이 함께 발전하기 위한 토대라고 이해하면 될까요?

◇ 이원화 : 네, 저는 오히려 그게 맞는 것 같아요. 규제보다는 AI 산업 진흥이나 안전성 확보를 위한 법이라고 보는 게 맞을 것 같고, 일례로 규정 중에 과학기술정보통신부 장관이 3년마다 국가 인공진흥위원회를 열어서 심의·의결을 거쳐 인공지능 기술이나, 산업의 진흥, 국가 경쟁력 강화를 위한 기본계획을 수립하고, 방향을 정하게 돼 있거든요. 그 기본 계획에는 인공지능 정책의 방향이나, 전문 인력 양성, 신뢰 기반 조성 등에 관한 모든 사항들이 포함이 되도록 하고 있어요. 결국 규제를 한다는 것보다는, AI 산업 성장을 위한 체계와 안전 확보, 신뢰 제고를 위한 법이라고 볼 수 있겠죠. 이 법이 총 6개의 장으로 규정이 돼 있는데, 총칙 규정이랑 벌칙 규정 빼고는 전부 인공지능 산업의 발전이나 추진, 산업 기반 조성, 신뢰성 확보 내용들로만 구성이 돼 있어요.

◆ 김우성 : 그렇군요. 뭔가 좀 더 발전하고 진흥하는 쪽에 무게가 확 쏠려 있다라는 느낌을 받게 되네요. 그냥 갑자기 궁금한 건데요. 변호사님 계시는 법조계에서도 AI 정말 많이 쓰지 않으십니까? 얼마큼 지금 많이 들어와 있나요?

◇ 이원화 : 지금은 많이 들어와 있어요. AI로 서면을 작성하거나 법률 리서치를 해주는 프로그램들은 이미 여러 개가 나와 있고요. 사실 이걸 사용하는 변호사들도 굉장히 많습니다. 처음 AI가 나왔을 때는 ‘할루시네이션’이라고 해서 허위 판례를 제공하는 낮은 수준이었는데, 지금은 굉장히 정확한 정보를 제공하는 정도에까지 이르렀고, 심지어 간단한 서명은 작성하는 데도 시간이 그렇게 많이 걸리지 않기 때문에 적극적으로 활용하는 변호사들이 많이 늘어났습니다.

◆ 김우성 : 예. 그럼 오히려 사건 자체나 의뢰인, 혹은 법정에 더 집중할 수 있게 변호사들이 더 역량을 키울 수 있는 조건이 만들어졌네요. 그런데 핵심적인 관심사는 고영향 AI입니다. 인간의 생명, 재산 혹은 안전, 에너지 같은 사회에 영향을 미치는 것들은 규제나 안전망이 필요하다는 얘기가 나오는 것 같아요.

◇ 이원화 : 네. 말씀 주신 고영향 AI가 뭔지를 좀 봐야 되는데, 고영향 AI는 국민의 안전과 인권에 직결되는 영역을 10가지로 압축해 방금 말씀 주신 에너지, 의료, 범죄 수사, 채용, 대출 심사, 교통, 교육 이런 항목들을 포함을 하고 있고요. 여기에 적용되는 AI라고 해서 모두 다 고영향 AI냐?, 그건 아니고 위험 수준을 두 번째로 판단을 합니다. 그래서 해당 인공지능이 사람의 생명이나 신체, 기본권에 중대한 영향을 미치는지 이걸 또 구체적으로 판단을 하는 거죠. 예를 들어서 시스템의 신뢰성은 어떤지, 오작동 시 피해 규모가 얼마나 큰지, 학습 과정에서의 왜곡·편향 가능성이 있는지, 민간의 개입이 없이 AI가 독자적으로 판단을 하는지 이런 것들을 전부 다 보고 판단을 하고요. 그렇게 해서 고영향 AI 사업자라고 판단이 되면 사전 검토 의무라든지, 고지 의무, 안정성 확보 조치 의무, 영향 평가 의무 이런 것들이 생깁니다.

◆ 김우성 : 예. 이거 잘 모르시는 기업이나, 혹은 이제 막 스타트업 아이디어로 출발한 분들께는 좀 도움 받으시면 좋겠습니다. 법률 전문가의 조언을 받는 게 유리하겠죠.

◇ 이원화 : 그렇죠. 아무래도 스스로가 고영향 AI 사업자인지 여부를 확인하는 것 자체가 쉽지는 않을 거예요. 왜냐하면 아까 말씀드렸던 에너지, 의료, 범죄소설, 채용, 대출까지 다 포함이 돼 있고, 교육, 교통까지도 들어가 있거든요. 그러면 내가 관련된 분야가 한두 가지가 아닐 텐데, 여기에서 내가 고영향 AI 사업자에 해당하는지 여부를 판단받기도 쉽지가 않을 거고, 아무리 가이드라인에 따른 체크리스트가 나온다고 해도, 법률 전문가의 도움을 받으시는 게 안전하게 사업을 이끌어 나가실 수 있지 않을까 싶습니다.

◆ 김우성 : 네. 사실 AI가 줄 수 있는 효용 가치라든지 성능이 굉장하기 때문에 많은 분들이 아이디어를 갖고 새로운 사업을 시작하는데, 이게 교통에 해당되나, 대출 심사에 해당되나, 혹은 사람의 생명에 영향을 주나, 처음에는 아닐 수도 있겠지만 “그렇게 되면 어떡하지?” 이렇게 기업들이 가이드라인으로서 생각하기보다는 규제를 우려하고 있거든요. 혼란 상황입니다. 지금 그래서 제가 여쭤본 질문인데, 아직은 사례가 없어서요. 변호사님 누가 킥보드에 어떤 장치를 달았는데, AI 서비스를 제공했다, 그런데 사례가 없어서 이게 중요한 고영향인지 아닌지 판단하기 애매하다, 이런 부분들이 많을 것 같아요. 또 AI 기본법이 그러면 적용하는 대상 기업들, 일단은 “샘 알트만의 오픈 AI나 구글은 미국 기업인데?” 이런 생각도 들고요. AI를 만든 사람이 문제인 건지, 그걸 활용해서 서비스를 만든 사람이 문제인지, 구분이 필요할 것 같습니다.

◇ 이원화 : 네. AI 서비스 이용 관계를 크게 4가지 단계로 구분을 하더라고요. 첫 번째 단계는 방금 말씀하신 오픈 AI 자체를 개발하는 개발 사업자가 있고, 두 번째 단계는 그것을 이용해서 사업을 하는 이용 사업자가 있습니다. 세 번째는 그렇게 나온 프로그램을 이용하는 이용자가 있고요. 네 번째는 그로 인해 영향을 받는 자. 이렇게 4가지 단계로 구별을 하는데, AI 기본법이 적용되는 사업자는 두 번째까지입니다. 그래서 개발 사업자와 이용 사업자까지고, 단순 이용자나 영향을 받는 자는 적용 대상이 아닌 거죠. 그래서 구체적으로 예를 들어서 말씀드리면 AI를 이용해서 컴퓨터 그래픽을 사용한 영화를 만들었다면, 그 AI 프로그램을 제작한 사람까지는 사업자에 해당하지만, 그걸 이용해서 만든 영화 제작자나 영화를 보는 관객은 포함되지 않는 것입니다.

◆ 김우성 : 잠깐만요. 그러면 저희 AI로 얼굴 합성하고, 이런 성범죄 우려 같은 것들도 있잖아요. 이걸 만든 사람은 고영향 AI나 혹은 AI 기본법 대상이 아닌 건가요?

◇ 이원화 : 그런 것은 생성형 AI 결과물이라고 볼 수 있는데요. 생성형 AI 결과물을 만든 사람은 인공지능 기본법의 적용 대상이 아닌 거죠.

◆ 김우성 : 예. 결국은 이건 또 다른 자에 불과한 것입니다. 하지만 또 형법상으로 타인의 인격과 재산, 생명을 침해한 행위는 처벌받습니다.

◇ 이원화 : 이미 별개고 그거는 인공지능 이전에도 처벌 규정이 또 있었습니다.

◆ 김우성 : 예 맞습니다. 그건 기본적인 거고, 그래서 결국은 보면 처벌받을까 말까 두려워서 일단 개발을 주저하는 일은 없어야겠다, 이게 좀 약간 암시가 되네요. 초기에 이원화 변호사님께서 법의 취지는 지능과 개발, 중흥에 많이 힘이 쏠려 있다라는 얘기가 이렇게 작은 질문들을 풀어나가다 보니까 더욱더 이해가 되는 것 같습니다. 그렇다면 고영향 AI로 분류가 됐고, 확실하게 그 서비스를 제공하는 사람들 같은 경우에는 어떤 관리 방식이나 전제 같은 것들이 필요할까요? 어떻게 해야 됩니까?

◇ 이원화 : 일단은 고영향 AI로 분류될 경우에는 두 가지 의무가 크게 생기는데요. 하나는 첫 번째로 투명성 확보 의무입니다. 그래서 해당 기업이나 관련 서비스가 AI에 의해서 작동된다는 사실을 이용자에게 사전 고지를 해야 돼요. 제품이 있다면 제품에 직접 기재를 하거나, 그게 아니라면 계약서나 약관 이런 곳에 기재를 해야 되고, 영상이라면 화면에 표시하고 또는 이런 AI 결과물들을 제공하는 장소가 있는 경우들이 있을 수가 있는데 그 제공 장소에서는 또 인식하기 쉬운 방법으로 게시를 하는 방법으로 투명성을 확보를 해야 되고요. 그리고 두 번째로는 안전성 관리 의무인데, 위험 관리 시스템을 구축하는 등의 어떤 법적인 준수 체계를 갖춰야 됩니다. 그래서 위험 관리 방안이라든지, 또는 사람들이 불안해 할 수도 있지 않겠습니까? 그래서 기술적인 부분을 어떻게 설명할지에 대한 설명 방안, 그리고 이용자를 보호하는 보호 방안 그리고 이런 AI를 또 관리·감독하는 사람이 있지 않겠습니까? 사람에 대한 관리·감독이나 또는 AI 운영에 대한 문서의 보관에 관한 사항들을 전부 다 준비를 해야 되는 거죠.

◆ 김우성 : 그렇군요. 뭔가 촘촘하게 그래도 안전도 있고, 여러 가지 규정과 법에 따라서 적용된다는 점. 왜냐하면 갑자기 병원에 갔는데 데이터를 AI로 분석한 경우 “지금 뭘 하셔야 될 때가 됐는데요”라고 했는데 불안해하시는 분들은 깜짝 놀랄 수도 있잖아요. ‘감시 받고 있나?’ 이런 걸 설명해 줘야 된다, 이런 얘기고요. 궁금한 게 있습니다. 그럼 저희도 지금 인공지능 진행자 에어와 김우성 PD, 제가 지금 방송을 같이 하고 있는데 AI로 방송을 해 드리는 거잖아요. 저희도 고지를 해야 됩니까? “여러분, 이 방송은 AI입니다.” 이렇게.

◇ 이원화 : 그게 아까 제가 말씀드렸던 영화 제작자랑 비슷하게 보시면 될 것 같아요. 그래서 AI 서비스를 이용한 결과물을 자신의 콘텐츠에 활용을 한 거기 때문에, AI 기본법상의 사업자가 아니고 이용자에 해당한다고 볼 수 있죠. 그래서 AI 제품이나 서비스를 이용한 결과물을 서비스에 활용하는 경우이기 때문에 의무 대상은 아니라고 봐야 됩니다.

◆ 김우성 : 예, 이게 여러분 헷갈리시죠. 보통 방송 심의에는 걸릴 수도 있어요. 저희가 사람이 아닌데 사람이라고 하면. 근데 AI 기본법을 바탕으로는 그 규제의 대상으로는 또 애매하고요. 왜냐하면 변호사님도 보셨을 텐데요. 쇼츠라든지 인터넷 보다 보면 “개가 말을 하네” 이런 것도 있고요. 진짜 의사가운 입고 와서 “이거 하나를 먹으면 머리털이 다시 수백만 개가 납니다.” 이런 사람들이 있어요. 그런데 그래서 구매를 하신 분들이 “속았다, 이거 AI한테 속았다” 이러거든요. 이것도 그럼 똑같은 원리로, 어쨌든 그걸 활용해서 콘텐츠를 만든 부분에 있어서는 AI 법 적용 대상은 아닌데, 다른 법으로는 처벌받을 수 있는 거죠.

◇ 이원화 : 그렇죠. 그리고 생성형 AI인 경우에는 이게 결과물이 인공지능으로 작성이 되었다는 거는 또 표시를 해야 되거든요. 그래서 특히 딥페이크처럼 실제와 혼동하기 쉬운 결과물, 그런 경우에는 이용자가 명확하게 인식할 수 있도록 가시적인 워터마크가 필수적으로 필요합니다.

◆ 김우성 : 맞습니다. 이건 규제가 아니라 규범상으로도 필요하고요. 알려드려야죠, 고객들한테. 그런데 이제 막간을 이용해서 잠시 틈새 질문, 변호사님 자꾸 이렇게 질문을 드리네요. 요즘 형사 사건 관련해서는 YTN 라디오에 팬들이 많으시니까요. 지금 AI 딥페이크로 성착취 콘텐츠 피해를 당했거나, 혹은 학교 폭력같이 AI를 활용해서 친구의 목소리나 외모를 우스꽝스럽게 놀리거나 하는 경우, 이건 이제 AI 기본법 얘기를 하고 있지만, 어떻게 처벌을 하고 어떻게 좀 피해자들이 보호를 받을 수 있을까요?

◇ 이원화 : 일단 처음 말씀 주신 AI를 사용한 딥페이크는 굉장히 많았습니다. 지금처럼 AI 기본법이 들어오거나 아니면 AI가 완벽하게 활성화되기 전에도 이미 좀 많이 있었는데요. 성법법상으로 처벌을 하고 있어요. 아동 청소년 성보호에 관한 법률에서도 처벌을 하고, 성 착취물이 제작된 경우, 예를 들어서 미성년자를 활용한 음란물이 제작된 경우에는 성착취물로 보거든요. 성 착취물이 제작되는 경우에는 아동·청소년의 성보호에 관한 법률 위반으로 굉장히 강력하게 처벌을 하고 있고요. 그리고 두 번째로 딥페이크를 이용한 음란물을 일반적인 음란물을 제작한 경우에는 성폭력 처벌법이라는 법이 있는데, 허위 영상물을 제작하고, 시청하고, 유포하고 이런 걸 처벌하는 규정이 또 따로 있어요. 그래서 거기에 의해서 처벌을 받게 돼 있고요. 그런데 방금 말씀 주셨던 것처럼 성범죄에 해당하지 않는 단순 허위 영상을 작성해서 누군가를 괴롭히는 것은, 예를 들어 명예훼손에 해당한다든지 그런 경우가 아니라면 처벌하기가 쉽지는 않을 것 같아요.

◆ 김우성 : 예. 이게 참 더 정교해졌습니다. 여러분 기술이 발달한 만큼 사람을 괴롭히는 것도, 또 보호하는 것도 더 아주 어려워지고 정교해졌는데요. 괜히 호기심에 친한 분들 사진으로 이상한 짓 하시면, 여러분 평생 씻을 수 없는 범죄의 기록이 남게 됩니다.

◇ 이원화 : 정말 큰일 납니다. 성착취물 제작 같은 경우에는 법정형이 5년 이상이에요. 살인죄랑 비슷한 수준이고 굉장히 큰 처벌을 받게 됩니다.

◆ 김우성 : 맞습니다. 인격을 죽이는 것과 같은 심각한 범죄입니다. 여러분, 절대 그렇게 하지 마십시오. AI 기본법이 시행되면서 여러 가지 비용 감면에 대한 기업들의 관심이 높아졌더라고요. 이 부분도 물론 지금 변호사님도 판례도 이상한 소리 안 하고 잘 찾아주더라, 자료 정리 잘해주더라, 이제 많이 활용하고 있거든요. 산업계에서도 만약에 이게 활용이 많아질수록 또 법적인 정비라든지, 또 법률적인 여러 가지 어시스트도 필요할 것 같기도 하고요. 이 전체적인 반응도 궁금합니다. 어떻게 평가하십니까?

◇ 이원화 : 일단 공공 데이터나 공개 데이터들을 많이 활용하는 스타트업 입장에서는 부담이 크다, 이런 반응이 있더라고요. 예를 들어서 모델 하나를 만드는 데 데이터를 수백만, 수천 수천만 장을 학습을 하는데 저작권 문제가 안 되는 데이터만 긁어서 학습하는 게 쉽지가 않다. 하나만 들어와 있어도 나중에 문제가 되면 이 전체를 제거하고 처음부터 다시 시작을 해야 되는데, 그만한 비용이 다시 든다, 이런 우려가 있는 경우가 있고요. 또 한편으로는 의료기기 업계 관계자의 우려가 있었는데, 우리나라의 경우에는 이미 보건의료법이나 의료기기법, 디지털 의료제품법 등 관련 법들이 굉장히 많이 있었다고 하거든요. 이미 강력한 규제를 여러 단계에 걸쳐서 다 하고 있는 거예요. 근데 그 상태에서 인공지능 기본법이 재차 규제가 들어오면 이중 규제 우려가 있고, 애초에 AI를 활용한 시장 진입 자체가 차단될 것 같다, 이런 걱정을 하시더라고요.

◆ 김우성 : 방금 중요한 얘기하셨어요. 사실은 저작권 이슈가 디지털 콘텐츠가 엄청나게 유통되면서 굉장히 중요한 이슈인데요. 내 허락 없이 AI가 학습했다라고 해서 반대하는 입장이 큰 저작자들의 어떤 목소리가 있었고요. 정부는 일단 AI를 똑똑하게 만들어 놓고 추후에 좀 보상할게, 아직도 이거는 공적으로도 정립이 안 돼 있습니다. 그럼 기업 입장에서도 뭔가 학습시키고 아주 양질의 데이터를 가지고 AI를 똑똑하게 만들어서 서비스를 제공해야 되는데, 이게 지금 많이 막혀 있잖아요. 법적으로는 미리 풀 수 있는 방법 없습니까? 당사자 간 계약이나 다른 방법은 없을까요?

◇ 이원화 : 현재로서는 일단 AI로 학습을 시켜서 활용을 하고, 사후적으로 협상을 해서 푸는 방식으로 하는 게 유일한 방법인 것으로 보입니다.

◆ 김우성 : 예. 그럴 때는 또 어떤 합리적인 기준에 의해서 이루어지겠죠.

◇ 이원화 : 사전에 계약을 해서 하거나, 아니면 저작권료를 일부 지급을 하고 사용할 수 있게 하는 제도나 방안이 마련이 돼 있으면 좋은데, 지금 현재는 그렇지 않기 때문에 일단은 활용을 하고, 활용을 한 이후에 협상을 해서 사용료를 지급하는 방식으로 풀어나가는 게 유일한 방법일 것 같습니다.

◆ 김우성 : 맞습니다. 지금 히트곡을 학습해서 음악을 만드는 AI, 그러니까 사실은 가수도 아니고요, 창작자도 아닌데 음원을 내는 경우가 해외에도 있고, 앞으로는 이것도 원 가수와 큰 소송이 붙을 거라고 하는데요. 이 관련된 이슈는 저희가 또 한 번 이원화 변호사님 연결해서 한번 좀 세부적인 부분은 다뤄보도록 하겠습니다. 결국 정부에서 이런 제도와 보완책을 많이 마련해 줘야 될 것 같고요. 앞서도 말씀해 주셨지만, 결과적으로는 지금 이 모든 법이 정비되는 과정에서 미국 회사죠. AI 서비스와 AI 기술을 최초로 개발한 회사들, 혹은 생성형 AI 거대 언어 모델을 제공하는 사람들, 즉 오픈 AI나 구글의 제미나이나 이들에 대한 책임, 예방, 노력 이런 것들을 강제할 수 있나, 이를테면 이미 딥페이크 처벌받지만 그런 기술의 안전적인 부분을 기업들이 책임지고 보완책을 마련해야 되지 않냐, 이런 목소리도 있어요. AI 기본법이 아직 그렇게까지는 못하는 거죠?

◇ 이원화 : 일단 해외 빅테크의 경우에는 전년도 글로벌 매출액이 1조 원 이상이고, 국내 AI 서비스 매출이 100억 원 이상 또는 국내 일평균 이용자가 100만 명 이상인 조건 중 하나라도 해당이 되면 국내 대리인을 두도록 했습니다. 국내 대리인을 두어서 국내 대리인을 감시·감독하는 방식으로 간접적으로 감독을 하는 거죠. 그래서 현재는 오픈 AI나 구글 정도가 해당할 수 있을 것 같습니다.

◆ 김우성 : 예, 알겠습니다. 이게 좀 구체적으로 만들고 있는 회사들에 대해서는 여러 가지 안전 대책을 요구할 수 있는 방법은 있는 거네요.

◇ 이원화 : 그렇죠. 특히 한국 시장에 진출을 하려면 한국 시장의 가이드라인을 따라야 된다는 정도의 감독은 가능하지 않을까 싶습니다.

◆ 김우성 : 예. 주변에 이런 경우도 있었습니다. “저 AI가 내 권리를 침해했다, 이거 나만 잘하던 건데 갑자기 누군가 AI로 개발해서 막 쓰더라. 이랬을 때 내가 샘 알트만을 상대로 소송을 걸어야 되나” 이렇게 물어보시는 분들이 있거든요. AI 서비스 때문에 내가 침해됐다, 했을 때는 어떻게 대처해야 될까요?

◇ 이원화 : 내가 권리 침해를 당한 그 침해 내용을 알아봐야 될 것 같은데요. 아까 말씀하셨던 것처럼 나만 잘하던 분야에 AI가 들어와서 시장이 작아졌다, 이런 부분은 현재 현행법상으로는 어떤 손해배상을 받기는 어려울 것 같아요. 왜냐하면 샘 알트만과 피해를 당한 어떤 그 특정 지인분은 계약 관계에 있지 않기 때문에 계약 책임을 묻는 것은 불가능하고, 그렇다면 불법 행위 책임만을 물을 수가 있는데, AI가 어떤 불법 행위를 행하지 않았다면 손해배상 책임을 묻기가 어려워지는 거죠.

◆ 김우성 : 이게 갈수록 파고들수록 무궁무진한 문제가 있습니다. 제 지인분은 특정 분야에 특정 상담을 되게 잘하시는 분인데, “AI가 더 잘하더라, 이러면서 소송해야 되냐” 이러는데 여러분 소송할 수 있는 게재는 아니다, 이런 얘기입니다.

◇ 이원화 : 요즘에는 사주도 AI가 보더라고요. 그러면 해당 분야의 전문가들은 사실 AI한테 본인이 더 불리하다, 이런 판단을 하실 수도 있을 것 같아요.

◆ 김우성 : 사회적인 의제는 될 수 있을지 몰라도, 법적으로 계약 관계상에서 위반 문제를 따질 수는 없다, 그리고 이거는 또 주변에 많이 궁금해 하시는데, 완전 자율주행 수준의 차들이 저희 상암동도 가끔 돌아다니거든요. 거기에 치이면 누가 보상하고, 누가 처벌받냐, 이거예요. 왜냐하면 운전자가 없잖아요. 인간이 없지 않습니까?

◇ 이원화 : 네. 그렇다고 한다면 완전 자율주행차를 운행시킨 제조물을 생산한 생산자가 있을 거고요. 그리고 그 차를 운영하는 운영자가 있을 겁니다. 그래서 제조자인 경우에는 제조물 책임법에 의해서 책임을 져야 되는 경우가 있을 수 있고요, 운영자의 경우에는 사용자 또는 그 운영자 본인이 예를 들어 내가 운전은 하지 않았지만 운전하는 차량의 회사다, 라고 하면 그 회사의 사장이 직접 책임을 져야 되는 경우가 오히려 있을 수도 있는 거죠.


◆ 김우성 : 여러분 자율주행도 4단계 이상이면 AI 법 적용받는다, 이렇게 또 기사가 있기도 했는데, 지금 이원화 변호사님 얘기를 들으니까, “자율주행 차량에 치였어요. 어떻게 해야 되죠?” 이런 질문이 올라오면 지금으로선 두 가지 방식의 답과 접근 방법을 제시해 주는게 유용할 것 같습니다. 알아볼수록 재밌네요. 저희가 또 관련해서 뜨거운 이슈 있을 때 다시 한 번 연결하겠습니다. 그리고 이원화의 사건 파일에서도 목소리 만나보도록 하죠. 오늘 말씀 감사드립니다.

◇ 이원화 : 네. 감사합니다.

◆ 김우성 : 네. 로엘 법무법인의 이원화 변호사였습니다.


YTN 김세령 (newsfm0945@ytnradio.kr)

AD

실시간 정보

AD

YTN 뉴스를 만나는 또 다른 방법

전체보기
YTN 유튜브
구독 5,260,000
YTN 네이버채널
구독 5,545,280
YTN 페이스북
구독 703,845
YTN 리더스 뉴스레터
구독 28,914
YTN 엑스
팔로워 361,512