■ 진행 : 함형건 앵커
■ 출연 : 이성엽 고려대 기술경영전문대학원 교수
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라운지] 명시해주시기 바랍니다.
[앵커]
우리 사회에 심대한 영향을 끼치는 큰 흐름을 짚어보고 미래를 조망해 보는 비전 카페 시간입니다.
챗GPT 같은 생성형 AI가 급부상하면서 지식산업의생산성이 크게 높아질 것이란 기대감이 커지고 있지만 동시에 윤리 문제와 규제 방안에 대한 고민도 커지고 있습니다.
당면한 AI 윤리의 과제부터 규제에 대한 해법은 없는지, 관련 내용, 이성엽 고려대 기술경영전문대학원 교수와 짚어보겠습니다. 안녕하세요.
[이성엽]
안녕하세요.
[앵커]
우리가 생성형 AI에 대해서 가장 우려하는 지점이 있다면 이것이 제대로 된 정보뿐만 아니고 허위정보, 잘못된 정보 역시 굉장히 저렴한 비용으로 빠르게 대규모로 생산해서 유포할 수 있다는 점 아니겠습니까? 이미 챗GPT가 나온 이후에 대중에게 많이 보급됐기 때문에 온라인상에도 많이 퍼져 있을 것 같은데 지금 현 상황 어떻게 진단하고 계십니까?
[이성엽]
그동안 언론보도를 통해서 트럼프 대통령이 경찰에 체포되는 게 가짜 영상이었다, 또 교황이 패딩을 입은 것도 가짜 영상이었다. 그리고 미국에서 국방부가 불타는 영상이 있었는데 이것도 사실은 가짜 영상이었다는 게 나오면서 사실 일부 보도를 통해서 그런 문제가 확인되고 있는데 실제로 얼마나 퍼졌는지는 통계 같은 건 없습니다마는 어쨌든 최근에 챗GPT를 통해서 나온 답변들을 각종 보고서에 인용하거나 또 블로그에 올리거나 이렇게 되니까 상당수 챗GPT가 만든 답변이 사실인 것으로 검증 없이 퍼지고 있다고 봐야 될 것 같습니다.
[앵커]
그러니까 이미지나 사진, 영상, 목소리도 합성할 수 있고 텍스트에 대한 생성은 물론이고요. 그런데 독자나 이용자 입장에서 이런 콘텐츠들이 온라인에 범람하게 될 것 같은데 이것을 구분할 수 있는 방법이 좀 모호한 지점들도 있지 않습니까? 기술적으로 명확하게 구별할 수가 없는 거죠, 지금?
[이성엽]
그렇습니다. 그래서 지금 규제 차원에서 워터마크를 넣어서 이건 AI가 생성한 걸 표시하게 한다든지 이런 식의 논의들이 이루어지고 있는데 워낙 정교하게 만들어지기 때문에 지금은 이게 사람이 만든 건지 AI가 만든 영상인지 구분하기 상당히 어려운 상황입니다.
[앵커]
그렇기 때문에 이 문제와 관련해서 당장 큰 선거를 앞둔 주요 국가들. 특히 우리나라 같은 경우에는 내년 4월에 총선을 앞두고 있고요. 미국은 내년 11월에 대선이 있는데. 챗GPT 그리고 생성형 AI가 이렇게 많이 보급된 이후에 치르는 첫 주요 선거들이기 때문에 각 국가들이 긴장하고 있습니다. 국내에서도 여기에 대한 경계의 목소리가 나오고 있고. 이런 챗GPT 등 생성형 AI 기술이 선거 환경에는 어떤 영향을 줄 것 같습니까?
[이성엽]
선거의 가장 중요한 건 유권자에 관한 정보, 그 사람의 비전이나 또 그동안 살아온 배경이나 이런 것들을 정확히 유권자가 알고 판단을 하는 건데 AI를 통해서 허위정보들이 대량으로 생산이 돼서 후보자를 비방하는 영상이 돌아다니거나 하면 유권자의 선택에 큰 혼란을 줄 것 같습니다. 그리고 예전의 AI와 달리 생성형 AI는 누구나 쉽게 이미지나 영상을 만들 수 있기 때문에 후보자나 당을 근거 없는 허위사실로 비난하는 흑색선전, 이런 것들이 상당히 많아질 가능성이 있어서 우리가 좀 공정한 선택을 하는 데 어려움이 있지 않겠느냐. 그래서 대선이나 총선이나 그런 부분에 대한 대책을 시급히 마련해야 되지 않느냐. 그런 생각입니다.
[앵커]
아직까지 우리나라에는 국내 유명 정치인의 이미지나 목소리를 도용한 가짜 정보, 허위 정보가 유포됐다, 이런 뉴스는 아직까지는 없었습니다마는 미국 같은 경우에는 지금 발생하고 있기 때문에 올 초에 바이든 대통령의 목소리를 위조해서 트랜스젠더를 혐오하는 듯한, 차별하는 듯한 발언, 이른바 가짜 녹취가 유포된 적이 있었죠. 아직까지는 그래도 눈으로 보면 이용자들이 자세히 보면 좀 구분되는 지점도 있기는 하다고 하는데 이게 콘텐츠마다 다를 것이기 때문에.
[이성엽]
점점 좋아지고 있어서. 앞으로는 진짜 일반인들이 봐서는 구분하기 어렵게 되지 않겠느냐. 그게 더 큰 문제라고 볼 수 있겠습니다.
[앵커]
오픈 AI의 최고 경영자 샘 알트먼이 지난 5월에 미 상원 청문회에서 이런 얘기를 했었죠. 선거 관련해서도 이런 위험성이 있다 경고한 바가 있었고 우리나라 같은 경우는 총선까지 7개월이 아직 안 남았는데 어떻습니까? 어떻게 대비를 해야 될까요? 제도적인 어떤 대비가 필요한 겁니까, 어떻습니까?
[이성엽]
그러니까 지금도 공직선거법에는 허위정보를 통해서 후보를 비방하는 경우에는 처벌받게 돼 있습니다. 그 조항을 활용하면 그런 처벌은 가능한데. 문제는 그런 페이크 영상이라든지 이런 게 실제로 있는지를 빨리 탐지하고 대책을 마련해야 되는데 그거를 사실 우리 선거관리하는 기관에서 모두 파악하고 제대로 시간에 맞게 대처할 수 있을 것인가, 그 문제. 그리고 이게 워낙 단기간에 이루어지니까, 선거라는 게. 사후적으로 대책을 세우는 게 의미가 없을 수도 있잖아요.
그래서 그 문제를 사실 사전적으로 어떻게 해결할 수 있는 방안이 있는 것인가인데 그건 사실 더 쉽지 않아서 조작된 것을 탐지하는 기술을 우리가 개발하기 위해 노력한다든가. 또 결국은 이용자들이, 우리 유권자들이 영상을 보고 진위 여부를 판단할 수 있는 능력을 배양한다는 차원에서 접근해야 되지 않겠느냐 그런 생각입니다.
[앵커]
유권자에 대한 교육도 굉장히 중요할 것이다. 이미지나 영상에 대한 합성 여부는 어느 정도 판별할 수도 있을 것 같은데. 그런데 텍스트 같은 경우에는 AI를 통해서 만들어진 텍스트인지 이거는 지금으로써는 정확하게 판별은 어려운 거 아닙니까?
[이성엽]
그렇습니다. 텍스트 자체는 사실 조작된 거나 이런 걸 알 수 없죠.
[앵커]
글자와 문구, 문장을 마음 먹고 작정을 하고 특정 후보자를 비방하는 그런 문구를 누군가 대량으로 만들어서 유포하려고 한다면 이것도 AI가 이용될 수 있는 소지는 분명히 있는데요.
[이성엽]
그렇습니다. 자동으로 예컨대 이메일을 발송하게 한다든지 이런 것들이 가능하기 때문에 그런 경우 결국은 팩트 체크 기능을 규제기관에서도 해야 되고 또 언론기관에서도 해야 되고 그런 기능들을 활성화시키는 게 우선은 해결책이 되지 않을까 싶은데. 이용자들이 어떻게 받아들이느냐가 중요할 것 같아요. 그런데 말씀드린 것처럼 선거라는 게 단기간에 이루어지기 때문에 한번 그런 사실들이 알려지면 해명이라는 게 큰 의미가 없게 되는 상황이 되잖아요. 그래서 이걸 사전적으로 어떻게 규제할 수 있느냐, 이런 논의들을 계속 하고 있는데 AI가 했다는 걸 고지하게 한다든지, 의무적으로. 영상이나 텍스트 같은 경우에도. 그런 법안들도 그래서 좀 논의가 되고 있습니다.
[앵커]
관련 법안이 지금 계류 중인 것으로 알고 있는데, 국회에도. 말씀하셨다시피 AI로 만든 것인지, 생성형 AI로 만들어진 콘텐츠인지 표기를 하라, 이런 조항들이 들어간 개정안들이 계류돼 있습니다마는, 하지만 그렇다고 하더라도 거기에 대한 직접적인 처벌조항이 붙어 있는 건 아닌 것 같고요. 그렇기 때문에 이걸 강제적으로 단기간 내에 제도화하기는 어려운 것 같고.
[이성엽]
그렇습니다. 현재으로써는 그렇게 단기간에 그걸 법으로 만드는 절차가 가능할지 시간도 얼마 안 남았기 때문에. 결국 그렇게 돌아가면 결국 실제 이용자들이나 또 선거를 직접 운영하는 쪽에서 그런 부분에 대해서 서로 자정노력도 필요할 것 같고 결국 이용자나 언론기관에서 그런 걸 걸러낼 수 있는 능력을 좀 개발하는 게 필요하지 않느냐.
[앵커]
유권자의 의식, 경계감이 중요할 것이다. 그리고 처벌 여부, 사후 제재는 사실 기존 법만으로도 가능하다는 말씀이죠. 샘 알트먼, 오픈AI 최고경영자가 이런 경고도 했죠. 설득과 조작을 이 기계가, 소프트웨어가 1:1로 이용자를 통해서 설득과 조작을 할 가능성. 말하자면 누군가가 대량으로 잘못된 허위 정보를 유포하는 것뿐만 아니고 알고리즘 자체가 편향돼 있거나 문제가 있다면 그것을 AI와 대화를 하면서 사람들이 착각에 빠져들게 할 수 있는 그런 여지가 있다. 이 위험성은 어느 정도로 진단하고 계십니까?
[이성엽]
그러니까 그 부분은 우리가 생성형 AI 특징은 대화형 AI잖아요. 그러니까 우리가 문자를 주고받듯이 계속 텍스트로 주고받게 되는데. 말씀하신 대로 알고리즘이 만약에 데이터 자체가 편향되거나 차별적인 내용을 담고 있다, 이렇게 되면 우리가 계속 대화를 하는 과정에서 그걸 진실로 받아들이게 되면 그 편향성이 우리 의식에도 영향을 미치게 되는 거겠죠. 그렇게 해서 조작을 일어날 수 있게 하는 부분들이 생기게 되는 것이죠. 지금 환각 이슈가 있거든요. 가장 특징적으로 확률적으로 가능한 답변을 하다 보니까 앞뒤가 안 맞거나 틀린 답변들 이런 걸 하게 되고 그걸 예컨대 이용자들이 그대로 진실로 믿게 되면 거기에 따라서 자기의 의견이 결정되니까 행동으로 나가게 되고. 큰 문제가 될 수 있는 거죠. 그래서 AI의 답변에 대해서는 사실은 그대로 신뢰할 게 아니고 한 번 더 스스로 검증하는 노력이 필요하다. 그래서 마이크로소프트의 빙이라든지 네이버의 큐 같은 서비스들은 출처를 표기하고 있거든요.
[앵커]
출처 표기가 중요한 것 같습니다.
[이성엽]
중요한 거죠. 출처를 통해서 진실인지 확인하고 그것을 나중에 다른 보고서에 인용하더라도 그런 출처 표기와 검증을 위한 노력들. 그대로 믿을 것이 아니라. 그런 부분이 되게 중요할 것 같습니다.
[앵커]
챗GPT에는 아직 출처가 나오지 않는 답변들이 많이 있습니다마는.
[이성엽]
지금 챗GPT는 아직 안 나오지만 빙이라든가 그런 것들은 같이 나오고 있습니다.
[앵커]
그러니까 지금 문제가 발생하는 지점이 답변이 거짓된 답변이 나오는 것. 이른바 환각현상, 그런 것이 있을 수 있을 것이고. 아까 말씀하신 편향성의 문제, 어떤 특정한 집단이나 아니면 소수 계층이나 이런 사람들에 대한 차별적, 혐오적 발언을 담은 그런 답변이 나올 경우 이런 것이 사회에 해악을 끼칠 수 있는데요. 우리나라도 수년 전에 이런 생성형 AI가 나오기 이전, 수년 전에 챗봇 이루다인가요? 이루다 논란이 크게 불거진 적이 있었습니다. 그런 일이 사실 앞으로도 계속 일어날 가능성이 있지 않습니까?
[이성엽]
사실 이루다는 그 당시에 기존 우리 일반인들이 하는 대화를 그대로 학습을 하면서 필터 장치를 안 하고 했기 때문에 문제가 생긴 거였고요. 아직은 최근에 나온 챗GPT나 바드나 이런 것들은 그런 식의 이슈는 제기가 안 되고 있는 것 같아요. 상당히 사람들이 나중에 한번 더 확인하는 작업을 하게 되면서 편향적인 답변들 때문에 문제가 됐다는 그런 건 아직 보고가 안 되고 있는 상황입니다. 그런데 이건 전 세계 사람들을 상대로 답변을 만들어내니까 그런 부분을 되게 유의하면서 진행을 하고 있는 것 같아요. 그런데 약간 소수의 사람들을 위한 예컨대 생성형 AI를 만든다, 이렇게 되면 그런 경우에는 그런 집단의 편향들이 반영될 수 있지 않을까. 그런 우려들은 있는 상황이고요.
[앵커]
결국 AI가 어떤 데이터를 갖고 학습을 했느냐. 그렇게 되면 AI는 결국 세상에 반영되기 때문에, 거울이 되기 때문에 편향된 정보를 제공하면 그것이 좀 더 확대, 증폭될 가능성이 있고, 이용자를 거치면서 그런 문제가 생기는 거군요.
아까 그런 말씀 좀 해 주셨습니다마는. 이용자가 기계와 대화를 하면서 생성형 AI와 계속 1:1로 질문과 답변을 거듭하면서 본인이 점점 더 몰입하다 보면 이것이 기계가 아니고 인간으로 느낄 가능성도 있다. 심리학에도 일라이자 이펙트인가요, 일라이자 효과라는 단어가 있는 것으로 알고 있습니다마는 이런 것에 대한 위험을 경고하는 목소리도 있는 것 같습니다.
[이성엽]
우리 영화 허(Her)에도 보면 그 영화에서 주인공 남자가 사만다라는 AI와 사랑에 빠지게 되는 그런 영화인데요. 그래서 그런 기계를 인간처럼 의인화하려는 움직임들이 있어서 결국은 인간으로 보면 자아상실이나 인간의 소외 위기로 갈 수 있는 문제여서 그런 부분들은 신중하게 접근해야 되겠다. 지금 네이버가 하고 있는 클로버 케어콜 같은 경우에는 독거노인들한테 전화를 해서 AI가 잘 지내시느냐, 아픈 데는 없느냐. 그리고 또 실제 과거의 대화도 기억을 해서 대화를 자연스럽게 이끌어가요. 그런 부분들은 독거 어르신들한테 상당히 위안이 되는, 이런 긍정적인 측면이 있는데 이게 좀 지나치게 되면 사실 인간하고 기계를 구분하지 못하게 되고 해서 나중에 상당히 외롭게 되고 고립되는 문제도 생겨서 그런 부분을 적절히 심리적으로 교육이나 이런 걸 통해서 해결해야 되지 않겠느냐, 이런 위험들도 경고를 할 필요가 있을 것 같습니다.
[앵커]
특히 지난해 화제가 됐었던 그런 부분인데요. 구글의 AI 개발자가 AI와 대화를 하다 보니까 AI가 자아를 가진 것 같다. 이런 주장을 하다 해고된 적이 있었는데 누구보다 AI의 알고리즘을 잘 이해하고 있을 법한 그런 개발자도 깊이 대화를 하다 보면 착각에 빠질 수 있다는 그런 사례라고 하더라고요. 말씀하셨다시피 그런 위험성이 있기 때문에 그러면 여론을 선전선동하거나 아니면 이른바 유사과학이라든가 아니면 사이비 종교라든가 아니면 어떤 목적을 가진 사람들이 이것을 이용했을 경우에 그리고 별도의 계층을 위한, 별도의 집단을 위한 별도의 AI를 만들어서 이것을 악용했을 경우에는 그런 문제가 충분히 발생할 수 있다.
[이성엽]
그럴 수 있겠죠. 특정한 목적을 가진 집단이 그렇게 AI를 이용하게 되면 그런 결과가 나올 수 있겠죠.
[앵커]
이용자의 윤리와 경계감과 책임의식이 굉장히 중요해진 것 같습니다.
[이성엽]
그렇습니다. 그게 우선은 현재 당장 어떤 규제가 없는 상황이고 하기 때문에 우선은 그런 부분이 중요하다고 말할 수밖에 없는 그런 상황입니다.
[앵커]
그래서 AI 문해력, AI 리터러시라는 말도 나오더라고요. 정의를 하면 어떤 개념입니까?
[이성엽]
리터러시라는 건 우선 우리가 AI의 원리를 잘 이해해서 우리가 AI가 어떤 장점, 단점이 있다. 그래서 AI를 어떻게 하면 우리가 잘 활용할 수 있겠다 하는 것 하고 그다음에 AI가 가지고 있는 어떤 문제점이 있으면 그 문제를 우리가 인식을 하고 그걸 사람에게 유리하게 활용할 수 있는 능력, 이게 AI 리터러시라고 하는데요. 이 문제는 우리가 정보화 사회가 되면서 휴대폰, 스마트폰 사용도 그렇고 여러 가지 새로운 기술이 도입됐을 때 그 기술의 실체를 이해하고 그걸 인간이 기계에 예속되지 않고 능동적으로 이용할 수 있는 능력. 그러니까 새로운 기술이 어렵잖아요. 그래서 그런 면에서 이게 인간이 유리하게 이용할 수 있는 방법들에 대한 논의여서 AI 이전에도 계속 문제가 되고 있고요. 이 부분이 좀 중요하다. 특히 어르신들이나 이런 쪽에서는 어떻게 이용하도록 할 것이냐 하는 것을 정부나 또는 소외 단체나 이런 쪽에서 노력을 해야 되지 않나 그렇게 보고 있습니다.
[앵커]
학교나 교육현장에서도 이런 데 신경을 써야 될 것 같고 언론이나 아니면 우리 사회 각계에서 관심을 둬야 될 것 같고요. 그러면 이런 인공지능 윤리에 대한 문제의식은 사실 생성형 AI가 나오기 이전에도 한 10여 년 전부터 계속 대두돼 왔던 문제이기도 한데 그래서 각국이나 국제기구에서도 윤리 가이드라인 제정을 위해서 여러 가지로 노력해 오지 않았습니까? 어떤 움직임이 있었습니까?
[이성엽]
생성형 AI가 나오기 전에도 주로 유럽을 중심으로 해서 AI 규제하려는 법들을 만들어왔습니다. EU는 인공지능법을 거의 성안 단계에 이룬 상태고. 그런데 이번에 생성형 AI가 나오면서 생성형 AI 부분을 좀 더 보완해서 지금 막바지에 온 것 같습니다. 하고 있고 미국은 아직 규제 입법, 법 자체는 만들어지고 있지 않지만 어쨌든 UN 차원에서, 안보리 이사회 차원에서 이런 전체 인류에게 위협이 될 수 있는 AI에 대한 규제를 좀 국제기구가 할 필요가 있지 않느냐. 그래서 원자력기구 같은 IAEA 같은 기구나 또 ICAO 같은 규제를 하는 기관을 만들어야 되지 않겠느냐 이런 논의들을 한창 진행하고 있습니다.
[앵커]
이 문제에 우리가 대응할 수 있는 부분을 크게 나누면 두세 가지가 있을 것 같은데요. 크게 두 가지로 분류해 보면 한 가지는 그런 윤리적 가이드라인, 규범을 제시하는 그런 방법이 있을 것이고 다른 하나는 법제도화해서 거기에 처벌조항까지 들어간 좀 더 강제적인 경성규범으로 가는 방법이 있을 텐데 어느 쪽이 더 필요한 것 같습니까? 지금 상황에서는.
[이성엽]
보통 경성규범이라고 말하는 법을 만들 때는 위험이 상당히 현실화되거나 상당히 위험이 근접해 있다, 이런 경우에 법을 만들고 그전에는 아직은 위험이 있기는 하지만 아직 현실화는 안 되고 있고 오히려 위험보다는 기술개발, 산업진흥, 이런 것으로 인해 소비자의 편익, 혁신으로 인한 소비자 편익이 좀 더 중요하면 당분간은 법을 만들기보다는 가이드라인이나 윤리적인 것으로 한번 가보자, 이런 식으로 그동안 논의가 돼 왔습니다.
그런데 최근 생성형 AI가 등장하면서 그것을 가공할 만한 위력들이 계속 논의가 되고 있으니까 우리도 규제를 도입해야 되지 않겠느냐 하는 논의가 좀 많아지고 있는 건 맞습니다. 그런데 문제는 규제를 도입하게 되면 한국의 AI 산업에 족쇄가 되는 문제가 생겨서 미국이 규제를 도입하고 있지 않는 이유도 그런 이유거든요. 그래서 EU의 규제 논의도 논의지만 미국의 규제 논의를 참고하면서 법제화는 신중히 접근을 하되 앞에 말한 윤리나 가이드라인을 통한 자율규제 형식으로는 좀 계속 노력을 하고 특히 이용자들의 리터러시를 어떻게 하면 배양할 수 있을 것인가에 초점을 맞춰야 되지 않느냐, 그렇게 생각하고 있습니다.
[앵커]
그 문제는 정부와 기업과 학계와 시민단체와 모두가 모여서 숙의 과정을 거쳐야 되겠군요. 말씀하신 대로 기업의 경쟁력에 족쇄가 되는 정도까지 규제하면 곤란할 것 같기도 하고 하지만 현실적으로 대두된 여러 가지 윤리적인 문제, 우리가 가보지 않은 길을 가는 것이기 때문에. 앞으로 어떤 문제가 대두될지 상당히 우려되는 지점들이 많아서 우리가 좀 같이 고민해 봐야 될 것 같습니다.
오늘 말씀 여기까지 듣겠습니다.
이성엽 고려대 기술경영전문대학원 교수와 함께했습니다. 고맙습니다.
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]