전체메뉴

사회
닫기
이제 해당 작성자의 댓글 내용을
확인할 수 없습니다.
닫기
삭제하시겠습니까?
이제 해당 댓글 내용을 확인할 수 없습니다

[뉴스라운지] 스스로 판단하는 AI 로봇 등장...EU, 첫 AI법 가결

2024.03.15 오후 07:51
AD
■ 진행 : 함형건 앵커
■ 출연 : 강정수 미디어스피어 AI 연구센터장


* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라운지] 명시해주시기 바랍니다.

[앵커]
인간과 대화하면서 스스로 생각하고 추론해 일을 수행한다는 인공지능 로봇이 공개돼 놀라움을 안겨주고 있습니다. 또 빠르게 발전하는 AI로 인류의 생존이 위태로워질 수 있다는 보고서도 나왔는데요. AI 발전 현황부터 문제점은 없을지, 강정수 미디어스피어 AI 연구센터장과 함께 살펴보겠습니다. 이번에 공개된 휴머노이드 로봇. 인간을 닮은 로봇이죠. 이 로봇, 스타트업에서 만들었다고 하는데 챗GPT 개발사인 오픈AI와 협업해서 만든 거라고 해요. 어떻게 보셨습니까?

[강정수]
되게 놀랍게 봤죠. 왜냐하면 이제 로봇이 지금까지 사실은 우리가 공장에 있는 많은 로봇들이 이미 있습니다. 팔을 움직여서 용접을 한다든지 이런 것을 협력로봇, 코봇이라고도 하고요. 휴머노이드 로봇이라고 하는 것은 인간을 닮은 손과 다리가 있는 로봇이었는데 아직까지는 사람이 사전에 설정해놓은 대로만 움직였던, 즉 자율적으로 움직이지 못했던, 나쁘게 표현하면 뇌가 없는 인간을 닮은 로봇, 물체였다라고 본다면 이제 인공지능이 몸을 만나서 뇌와 몸이 결합되는 양상으로 가는 거기 때문에. 또 인공지능의 챗GPT 4.0부터 특징 중의 하나가 멀티모델이라고 하는데 멀티모델이라는 것은 인공지능이 볼 수 있고 들을 수 있고 말할 수 있다는 뜻을 얘기하거든요.

그러면 듣고 볼 수 있고 말할 수 있는 인공지능이 로봇과 결합하면서 로봇이 지금 보고 있는 것이 무엇이다. 사과라고 이야기한다든지 지금 이것에 대해서 어떤 색깔인지 얘기해 줄 수 있고 말할 수 있고 그리고 또 인간이 말하는 걸 들을 수 있고. 이런 부분에서 사실은 로봇이 이제는 뇌를 가졌구나, 똑똑해졌구나, 이런 부분에서 많은 사람들이 놀라고 있다고 저는 생각이 듭니다.

[앵커]
이렇게 화면을 보면 홍보영상이죠. 회사에서 공개한 화면을 보면 로봇 관절이라든가 행동이라든가 이런 것도 이전보다는 상당히 자연스러워지고 있는 것 같고 지금 설명해 주신 대로 자체적으로 시각적인 상황을 판단하지 않습니까? 판단하고 추론해서 이를테면 사람이 뭘 해 줘. 먹을 것을 줘. 그러면 눈앞에 있는 것 중에서 먹을 만한 과일이라든가 사과라든가 이걸 집어서 준단 말이죠. 스스로 추론하는 과정. 이전의 로봇은 이런 행동을 하는 로봇이 별로 없었습니까?

[강정수]
이전에 있었던 로봇은 인간이 다 규칙을 정해 주는 겁니다. 규칙을 정해줘서 앞에 있는 물건을 본다면 그것을 집어서 옮기라는 명령을 가지고 있는 건데 그 앞에 있는 보는 물건이 사과인지 바나나인지 귤인지는 구별할 수 없거든요. 이제는 그거를 보면서 내가 갖고 있는 이미지 센서를 통해서 이것이 귤이구나, 사과구나, 바나나구나. 그리고 바나나의 강도의 어떻구나, 사과의 강도는 어떻구나라는 것을 이제 본인이 판단하면서 손을 잡을 때도 손의 힘, 압력을 조절할 수 있다는 거죠. 그러니까 그전에 있었던 것은 그것을 하나하나 다, 사과가 보일 경우에 사과가 있을는 압력을 이렇게 줘라고 인간이 하나하나 지시해 줘야 합니다.

하지만 인공지능이 결합했다는 것은 말씀하셨던 추론. 추론이라는 것은 사과를 봤을 때 사과의 강도와 사과의 일반적인 크기와 평균적으로 사과를 잡았을 때 어느 정도 내가 압력을 줘야 안전하게 옮길 수 있다라는, 또는 달걀을 옮길 때는 어느 정도 압력을 줘야 한다라는 판단을 추론할 수 있는 것들이 함께 포함되어 있다고 볼 수 있습니다.

[앵커]
이를테면 로봇 앞에 쓰레기 같은 것을 흐트려뜨려놓고 어떻게 하면 좋겠니. 그러면 이건 정리해서 어떻게 수거해야 할 것 같아요.

[강정수]
재활용은 재활용 대로 종이는 종이대로 캔은 캔대로 플라스틱은 플라스틱대로 구별할 수 있는 건 당연합니다.

[앵커]
그리고 사용자와 사람과 자연스럽게 대화를 나누면서 사람이 어떤 내용을 주문을 하면 거기에 맞게 행동을 해 준다는 거죠?

[강정수]
네, 이런 휴머노이드가 궁극적으로 노리고 있는 시장은 가사 노동시장입니다. 처음에는 공장이라든지 또는 물류창고라든지 또는 우주공간에서 인간이 나아갈 수 없는 곳에서 작업을 한다든지 여러분이 영화 속에서 봐왔던 이런 부분들에서 실현이 되겠지만 궁극적으로 휴머노이드의 시장이라고 보고 있고, 거대한 시장으로 보고 있는 것은 가사노동인 거죠. 가사노동이라는 것은 빨래를 세탁기에 돌리고 세탁기에서 빨래를 끄집어내서 빨래를 널고 필요하다면 다림질까지 하는, 뜯어져 있다면 바느질까지 하는. 이런 것까지를 궁긍적 목표로 하고 있기 때문에 우리가 보통 근육에 해당하는 것을 구동기라고 하는데 이런 구동기들도 대단히 발전하고 있고요.

이를테면 테슬라의 옵티머스라는 부분들은 지금 아직까지 휴머노이드 로봇 발이 평발이었거든요. 평발이다 보니까 아무래도 균형을 잡기에 대단히 어렵습니다. 발이라는 것은 원래 4개가 있고 6개가 있고 8개가 있을수록 더 안정적이거든요. 인간이 직립보행한다는 것이 대단히 뛰어난 것이 두 발로서 균형을 잡는다는 것은 어려운데요. 휴머노이드는 두 발로서 균형을 잡을 수 있다라는 거고 움직일 수 있다라는 거고 앞에 장애물이 있으면, 예를 들면 앞에 뭐가 떨어져 있어요. 아니면 집안에 반려동물이 앞에 있어요. 그럴 경우에 이걸 피해가야 된다든지 이런 부분까지도 다 인지할 수 있고 지능이 있어야 더욱더 효과적으로 움직일 수 있거든요.

그러니까 이미 발전되어 있습니다. 카메라도 사람의 눈보다 더 좋고요. 청각도 인간의 청각보다 더 좋습니다. 그런데 이걸 판단해서 행동할 수 있는 능력들이 지금까지는 없었는데 이것이 흔히 말하는 챗GPT라든지 이런 거대 언어모델들이 물리적으로 로봇과 결합하면서 성능이 뛰어나게 향상되는 이러한 과정에 있다고 볼 수 있습니다.

[앵커]
그러면 동일한 로봇이 공장에서 저렇게 나중에 개발돼서 나온다고 하더라도 어떤 환경에서 사용이 되느냐, 집에서 사용하느냐에 따라서 다른 행동, 다른 학습을 해서 다른 패턴을 보일 수 있는 겁니까?

[강정수]
그렇죠. 예를 들자면 아마존에서 우리나라 쿠팡과 같은 기업이죠. 자동화가 물류센터는 많이 되어 있습니다. 큰 짐을 나를 때는 기계가 나르고 이런 것들은 다 로봇이 나르고 이런 것들은 되어 있었는데요. 마지막에 물건을 들어서 차에 실을 때 규격이 다 다르잖아요. 박스의 크기가 다 다를 때 어떻게 하면 효과적으로 여기에 딱 알맞게 최대한 많이 집어넣을 수 있을까. 또는 이 박스를 들었을 때 여이게는 예를 들자면 무거운 사료가 들어 있다, 그럴 경우에는 좀 더 힘을 줘야 한다, 가벼운 물건이 있을는 있을 때 약하게 힘을 줘야 된다. 이런 판단들을 종합적으로 기계가 하기가 너무 어렵고 인간이 일일이 프로그래핑하기 너무 어려웠는데요.

지금 아마존에서 투자하고 있는 어질리티로보틱스 같은 경우에는 피겨01하고도 유사하게 생겼습니다. 여기 같으면 완전히 물류에 특화되어 있어요. 물류에 특화돼 있어서 상자의 색깔에 따라서 무게감을 느낄 수 있고 자기가 처음 들었을 때 느낌으로 전체 무게가 어떻다라는 추론도 가능하고요. 우리도 인간이 알잖아요. 어떤 물건을 조금 들어봤을 때 이거는 정말 무겁겠구나 이건 가볍구나. 다 들지 않더라도 느낄 수 있는 것처럼 이런 감각적인 부분들도 대단히 진화하고 있다고 볼 수 있고요. 이렇게 물류에 특화된 것이 있을 수 있고요.

예를 들자면 피겨01도 BMW 공장에 짓겠다는 게 첫 번째 기계거든요. 그리고 마찬가지로 테슬라의 옵티머스2 같은 경우에도 이것도 3, 4로 발전할 수 있겠지만 먼저 자동차공장에 있겠다는 거예요. 그런데 자동차 공장이 이미 용접 로봇이라든지 이런 게 많이 있는데요. 거기에서 예를 들자면 차 안에다 전선줄을 놓는 거, 이거 기존의 로봇이 못합니다. 왜냐하면 감각적으로 규격을 봐야 하고 좁은 공간에 들어가야 하고 또는 인간이 머리와 함께 들어가서 전선줄을 넣어야 하는 부분들. 이런 부분에서 아까 보셨던 피겨01이라든지 옵티머스가 들어가서 할 수 있다라는 거거든요. 그래서 자동차공장에 특화돼서 먼저 학습된 로봇들이 작동할 거라고 보고요. 가사노동은 맨 마지막 단계가 아닐까 싶습니다.

[앵커]
그렇군요. 이번에 공개된 피겨01이라는 이 로봇뿐만이 아니고 아까 설명해 주셨습니다마는 테슬라라든가 다른 스타트업에서도 AI를 활용한 로봇 개발에 상당히 경쟁적으로 뛰어들고 있는 것이죠.

[강정수]
왜냐하면 시장이 너무 크기 때문입니다. 시청자분들도 생각해 보십시오. 지금 테슬라, 옵티머스의 목표는 뭐냐 하면 이 최종 가격이 2만 달러입니다. 우리나라 돈으로 3000만 원 미만이거든요. 언젠가는 10년이 지난 뒤 또는 과학이 발전이 늦어져서 20년 지난 뒤에 저희 집에서 빨래를 해 주고 이불을 개주고 청소를 해 주고 반려동물을 돌봐주고 이러한 쓰레기를 분류수거를 해 주고 이러한 로봇이 2000만 원 정도나 3000만 원 정도 집에 들어온다라면 저는 자동차보다 더 집에 놓을 의사가 많다고 생각합니다.

그렇기 때문에 너무나 거대한 시장이기 때문에 휴머노이드 로봇 시장에 다양한 기업들이 뛰어들고 있는 거고 직접적으로 뛰어들지 못한다면 예를 들자면 삼성전자라든지 이런 데는 피겨01에 투자를 한다든지 이런 식으로 직간접적으로 다 뛰어들고 있고요. 여기가 이제 가능성 있다고 보는 것은 지금까지는 로봇은 잘 만들 수 있었는데 두뇌가 쫓아가지 못했다는 거거든요. 오히려 로봇공학이 더 발전했었고 여기에 미치는 로봇들이 두뇌가 발전하지 못했다면 이제는 두뇌의 발전 속도도 로봇 공학의 발전 속도하고 발맞출 수 있는 수준까지 가면서 두뇌와 우리의 물리적인 로봇 공학이 함께 발전하는, 서로 상승하면서 시너지를 내면서 발전하는 그 단계에 진입했기 때문에 대단히 가속도를 가지면서 이 시장에서의 경쟁이 치열해질 거라고 볼 수 있습니다.

[앵커]
사실 많은 빅테크 기업들이 개발 경쟁에 이미 나섰고 이번에 홍보영상을 공개한 피겨01을 공개한 피겨AI라는 회사죠. 이 자체도 사실 얼마나 전에 많은 투자를 받았지 않습니까? 그래서 앞으로 우리가 빠른 속도로 개발을 해 나갈 것이다. 일종의 예고편같이 느껴져요.

[강정수]
그렇죠. 사실 테슬라의 옵티머스 같은 경우에도 2021년부터 개발을 시작했고 2022년에 시제품, 프로토타입을 보여줬어요. 그런데 작동하지 않는 거였고 사실은 뒤에서 인간이 다 조작하는 거였거든요. 그런데 2023년 봄에, 작년 봄에 옵티머스 1세대가 나왔습니다. 그런데 2023년 12월에 옵티머스 2세대는 나왔는데 사람들이 실제로 볼 수 있는 것이 아니라 동영상으로만 보여줬어요. 그러니까 아직까지는 지금 개발단계가 이 정도까지 왔다는 것을 기업들이 일종의 기 싸움을 하고 있는 거죠. 보여주는 거고 피겨AI 같은 경우도 창업한 지 얼마 안 됐고. 그런데 이번에 대단히 유명한 기업들이 투자가 들어온 거죠. 삼성전자라든지 인텔이라든지 아마존 창업자가 투자자로 들어오면서 오픈AI로 챗GPT 투자자로 들어오면서 이렇게 되면서 유명세를 타면서 이걸 사람들이 만져볼 수 있도록 시연은 못하더라도 유튜브에서 동영상으로라도 보여줘야겠다. 이런 부분에서 일종의 홍보 부분에서 어느 정도 과장이 있을 수 있지만 근접해 있다고 저희가 평가할 수 있습니다.

[앵커]
또 다른 한편으로는 두려운 생각도 들기도 하는데요. 몇 가지 갈래로 생각해 볼 수 있을 것 같습니다. 1차적으로는 우리가 어느 정도 예상은 하고 있습니다마는 로봇과 AI가 대체해가는 직업의 범위가 상당히 넓어지지 않을까. 아까 설명해 주셨습니다마는 사람이 들어가서 작업하기 위험하거나 번거로운 그런 부분으로 들어갈 수 있을 것이고 이미 많은 분들이 공장이라든가 사업장에서 일하고 있는 부분을 로봇들이 대체해 가지 않을까 마치 SF 영화에 나오는 한 장면처럼. 어떻게 보십니까?

[강정수]
원래 기술이 발전하면 일자리의 변동은 있습니다. 예를 들면 얼음공장에서 일하셨던 분들 냉장고가 도입되면서 한국에서도 많은 분들이 일자리를 잃었습니다. 그리고 과거로 치면 미국이나 유럽으로 치면 자동차가 도입되면서 마차와 관련돼서 일했던 분들도 일자리를 잃었고요. 사실은 기술이 도입되면 일정 정도의 일자리 변동은 저희가 피할 수 없습니다.

그런데 문제는 사회적 총량으로 볼 때 노동자 수가 줄어들 것이냐, 이런 부분들은 또 별도로 논의해야 하고 정책적으로 어떻게 할 것인가. 예를 들자면 로봇과 함께 우리가 공존하는 삶을 사회적으로 어떻게 설계할 것인가, 정치적으로 어떻게 제도적으로 이거를 안착화시킬 것인가 그래서 예를 들자면 주4일 노동이라든지. 제가 정답이라는 것이 아니라 유럽에서나 미국에서 논의되고 있는 것은 로봇과 함께 공존하는 사회를 어떻게 갈 것인가. 그래서 주4일 노동, 주3일 노동 이런 부분에서 인간과 로봇이 함께 일하는 부분으로써 논의되어야 하는 것이지 우리가 이것이 두렵다. 두렵다고 해서 저희가 안 쓸 건 아니거든요. 얼음공장에서 일하시는 분들이 일자리를 잃는다고 해서 냉장고를 안 쓸 것은 아니라는 거예요.

그리고 횃불을 꼭 써야 되기 때문에 전기를 포기하지 않을 거고 전기의 불빛을 우리가 선호하면서 횃불을 쓰는 사람과 우리가 작별을 했던 것처럼 기술과 관련해서 우리가 너무 두려워하실 필요가 없다는 거예요. 저희가 주판을 버린 지 우리나라도 30년 안 됐습니다. 주판을 버리고 계산기로 간 거잖아요. 이제 계산기를 버리고 엑셀이라는 것을 쓰고 있는 거고요. 그래서 일자리의 변동은 분명히 있습니다. 예를 들자면 프리랜서의 일자리들, 사실 작년에 할리우드 같은 경우에는 작가들하고 배우들이 긴 파업을 했지 않습니까? 이런 파업에서도 작가들의 일자리에 대한 공포라든지 또는 배우들이 요즘 디지털 휴머노이드가 나오니까 자신들의 일자리에 대한 공포가 있고 실제로 대체 효과가 존재하고요.

그래서 이제 노사가 합의안에서 어떻게 앞으로 쓰자. 이런 합의를 하는 것처럼 우리가 일자리가 줄어드는 것은 있을 수 있습니다. 있을 수 있는데 이 부분에서 막연한 두려움이 아니라 그래서 인간만이 할 수 있는 걸 찾는 것이 아니라 자꾸 인간과 기계가 공존하는 삶과 사회에 대해서 우리가 생각하고 위험분을 미리 제거하고 그리고 그것을 시너지 효과들을 극대화할 수 있는 방향으로 고민을 이어가야 될 거라고 보고 있습니다.

[앵커]
그 부분을 조금 더 세부적으로 볼 텐데요. 마침 최근에 AI의 미래상과 관련된 보고서가 하나 나온 게 있었습니다. 이게 미 국무부가 민간 연구기관에 의뢰해서 나온 그런 보고서라고 해서 더 주목을 받은 것 같은데. AI가 고도화되면 인류의 생존을 위태롭게 할 수 있다, 이런 표현이 나왔습니다. 시점까지 거론이 됐고요. 어떻게 보셨습니까?

[강정수]
우선 저 보고서, 저도 타임즈나 CNN에서 먼저 보도가 돼서 그 기사를 봤었는데요. 우선 거기에는 한 가지 전제조건을 이야기하고 있어요. 인공지능과 로봇공학과 그다음에 바이오테크놀로지. 이 세 가지가 결합될 경우에 대단히 우리가 예측하지 못하는 폭발적인 성장, 급성장이 발생할 수 있고 이때는 우리가 예측을 못했기 때문에, 이 기술의 발전 수준이 대단히 핵무기의 발전과 같이 통제 못하는 수준으로 갈 수도 있으니 미리 위험들을 보고 여기에 대한 흔히 말하는 가드레일이라고 이야기하죠. 안전한 울타리를 쌓아놓는 것이 필요하다라고 저 보고서는 주장하고 있는데요.

사실 저 보고서와 유사한 주장들은 유럽연합에서 최근에 AI법이 통과될 때라든지 사실 저 법을 통과하는 것은 지금 백악관 같은 경우는 행정명령 차원에서 대통령령으로 AI 관련한 행정명령을 하나 발동한 게 있거든요. 이런 것에 대한 사후 어떠한 근거들을 계속 마련하고 있는 작업이라고 보고 있고요. 저는 저 경고가 틀리지 않다고 생각하고 있습니다. 즉 지금 있는 챗GPT가 세상을 다 바꿀 수 있다 이렇게까지 생각하지는 않더라도 이 챗GPT라고 이야기하는 거대 언어모델과 로봇 공학과 바이오테크놀로지가 합치게 되면 이것이 생화학 무기가 될 수도 있는 것이고요.

그리고 인간에 대한 물리적인 통제도 가능해질 수 있는 거고, 그래서 예를 들자면 올해 2024년 1월에 일론 머스크 같은 경우에는 옵티머스를 이야기하면서 이것의 양산이 늦어질 수 있다. 양산이 늦어지는 이유는 기술에 못 접하는 게 아니라 옵티머스가, 휴머노이드가 해킹당할 수 있기 때문에 여기에 대한 대응책을 강구하는 것이 훨씬 더 생산보다 어려운 과정이고 더 오래 걸릴 거라고 얘기했거든요. 이건 생산자 측에서도 고민하는 거고요.

그리고 제도적인 측면에서도 정치권이나 행정 쪽에서도 같이 고민해야 한다고 봐요. 여러분, 저런 로봇들이 사과를 건네주고 물건을 나를 수 있고 13kg 또는 30kg까지 물건을 나를 수 있다는 것은 적절한 수준에서 힘을 과시할 경우 아이들에게는 피해를 미칠 수 있고 노인들에게도, 나이 드신 분들에게도 육체적인 물리적인 피해를 줄 수 있는 거거든요. 그런데 이 통제권이 해킹을 당해서, 예를 들면 적대국에 넘어갈 수 있는 거고 또는 나쁜 마음을 갖고 있는 기업에 넘어갈 수도 있고요. 그렇기 때문에 앞으로 이런 것에 대한 보완들을, 안전성들을 사전에 어떻게 점검할 것인가가 대단히 중요합니다.

[앵커]
비슷한 맥락의 주장을 했었던 대표적인 학자 중에 역사학자죠. 유발 하라리 같은 경우 호모 데우스라는 책에서 같은 맥락의 주장을 하지 않았습니까? 데이터 시대의 인공지능 알고리즘이 고도화되면 호모사피엔스의 설 자리가 없어질지도 모른다. 그런데 역시 말씀하신 대로 토를 달아놓은 게 있었어요. 인간이 미래를 예측할 수 없다. 왜냐하면 기술이 결정론적으로 가지 않기 때문에 우리가 어떻게 그러면 상상력을 발휘해서 미래에 대비해 나갈 것인가 이건데요. 최근에 유럽의회가 가결했다는 AI규제법, 이게 세계 최초라고 해요. 어떤 내용입니까?

[강정수]
우선 몇 가지의 AI를 분류를 합니다. 고위험 AI. 이렇게 해서 그리고 또는 일반 인공지능으로 가게 되는 AI 등 이렇게 AI를 구별해서 AI의 성격과 수준에 따라서 구별을 차별화하자. 그리고 또 하나는 AI로 가기 위한 기초적인 기술 중에서 중국에서 썼다는 평가를 많이 받고 있는 소셜스코어링이라는 게 있습니다. 사회적 평판 제도라는 것이 있는데 우리가 흔히 말해서 CCTV로 저 사람의 얼굴을 판단하면 저 사람의 신용정보는 얼마, 우리가 신용정보 요즘 스마트폰 앱에서 쉽게 확인할 수 있잖아요.

그런 정보를 통합해서 저 사람의 신용정보는 얼마 저 사람의 범죄 경력은 얼마, 저 사람의 예를 들면 학교의 학력은 어땠고 학교 성적은 어땠는지 이런 것들이 종합적인 점수로 매겨지는 이러한 것을 소셜스코어링, 사회적인 점수 시스템이라고 얘기하는데요. 이런 것은 아예 금지하겠다 이런 식의 부분들을 몇 가지, 그리고 또 하나 직장에서 저 사람이 지금 감정 상태가 어떤지 사실 인공지능이 판단할 수 있습니다.

지금 되게 피곤한 상태인지 졸음이 오는 상태인지 분노의 상태인지, 슬픔의 상태인지 이런 것들을 나름 직장에서는 안전 차원에서 저 사람이 우울증에 빠질 수 있고 여러 가지 차원에 있어서 할 수 있는데 이것이 나쁘게 보면 사생활 침해고 감시가 될 수 있는 거잖아요. 이런 기술에 대해서 금지시키는 것이 있고요. 고위험 AI라고 하는 것은 예를 들자면 일반 인공지능, 우리가 자율주행처럼 인간보다 더 똑똑하다라고 생각하는 인공지능을 일반 인공지능이라고 하는데요.

이런 경우에는 예를 들면 사전의 안전도를 검사받을 것. 그리고 계속해서 사고가 났으면 사고에 대한 보고서를 제출할 것. 그리고 투명성 조사를 받을 것. 이런 규제들을 만들어내고 있는데요. 이번에 통과된 것은 아직 각국에서 인준을 받은 것은 아닙니다. 유럽연합 의회에서 통과된 것이고 여기에서 고위험군을 어떻게 규제할지에 대한 구체적인 법안은 앞으로 6개월에서 12개월 동안 마련하게 되어 있어요. 그러니까 전체적인 흔히 말하는 틀을 마련한 것이지 하나의 세부조항으로 고위험 AI는 이러이러한 것이다, 이렇게까지 하나하나 정하지는 않고 있습니다.

[앵커]
구체적으로 어떤 인공지능 서비스가 금지되고 혹은 엄격하게 관리되고 이거는 앞으로 반년 동안 유심히 살펴봐야 될 것 같고. 그러면 유럽에서의 이런 흐름 자체가 세계 다른 지역에도 영향을 미치는 일종의 글로벌 스탠더드 같은 그런 역할을 할 수가 있는 겁니까?

[강정수]
만약에 우리가 인공지능이 위험할 수 있다라는 차원에서, 지금 유럽연합의 인공지능법은 우려되는 부분은 있어요. 인공지능의 혁신을 제어할 수 있거든요. 왜냐하면 이런 기준들을 일반적으로 스타트업들은 마치기가 어렵습니다. 돈이 많은 대기업 같은 경우에는 변호사를 쓸 수 있고 이런 안전하게 일할 수 있는 사람들을 구축할 수 있어서 여유가 있는데 이거를 보통 우리가 창의적인 것들, 혁신적인 생각들은 또는 기술들은 스타트업에서 많이 나오는 편인데 스타트업 같은 경우 그 비용을 감당하기 어려울 수 있다라는 우려는 분명히 있어요. 이 부분은 어떻게든 해결할 거라고 저는 보고 있고요. 두 번째 우려 같은 경우는 초반에 말씀하셨던 것처럼 핵무기하고 같다고 말씀을 드렸잖아요.

핵무기는 여러분, 미국하고 예를 들자면 과거의 소련, 지금 미국, 러시아 또는 중국만 합의한다고 되는 게 아니거든요. 세계가 다 합의해야 북한과 같은 사례가 안 나올 수 있는 거잖아요. 그것처럼 예를 들자면 지금 미국에서도 AI와 관련돼서 대통령령으로 행정명령을 내려놓은 상태에 있고 유럽연합도 이번에 법안이 통과가 되었고요. 물론 각국의 인준은 필요합니다.

그리고 중국 또한 인공지능과 관련된 법이 있습니다. 중국 또한 있는 중국하고 지금 크게 인공지능 관련된 법들이 논의되고 있거냐통과된 곳은 중국과 유럽과 그다음에 미국밖에 없다라는 거죠. 그러나 여기에 다양한 나라들이 있지 않습니까? 일본도 있을 수 있고 한국도 있을 수 있고 인도도 있을 수 있고 대표적으로 대단히 컴퓨터, AI 과학이 발전된 인도라든지 이런 나라들까지도 다 같이 전 세계적으로 논의되어야만 여기에서 우리가 말할 수 있는 이런 생화학 무기로의 위험성이라든지 핵무기로는 위험성과 같은 인공지능의 위험성에 대해서 국제적인 규제가 가능할 수 있습니다.

[앵커]
아까 앞서 언급했었던 미 국무부가 의뢰해서 나왔다는 보고서를 보면 범용인공지능, 좀 더 확장된 거의 인간에 가까운 지능과 역량, 어떻게 보면 인간을 더 뛰어넘는 인공지능이 되는 거죠. 그것이 나오는 시점이 2028년 정도로 업계에서 보고 있다 그러던데요. 우리가 여러 가지 제도적 측면이라든가 어떻게 규제할 것인가, 어떻게 활용할 것인가 사회적인 지혜를 모아가야 할 것 같습니다. 우리나라에서도 관련 법안이 발의는 됐습니다마는 국회에 계류 중이라고 들었는데요. 어떻게 보고 계신지요?

[강정수]
우선은 급하게 한국에서 처리해야 하는 것은 흔히 말해서 인공지능이 만드는 딥페이크. 딥페이크는 인공지능이 만드는 가짜 선전물이나 이런 것들이죠. 이런 부분에 대해서는 우리나라 의회도 통과를 시켜서 이번 총선을 맞고 있습니다마는 전체적인 범용적인 토론은 아직까지 논의될 수 있는 수준이 논의의 깊이가 시간적으로도 제약이 되어 있었기 때문에 짧다고 볼 수 있습니다. 그래서 여기에서 다양한 개인정보의 보호라든지 위험성에 대한 논의들, 아직 논의할 것들은 대단히 산적해 있다고 볼 수 있습니다.


[앵커]
알겠습니다. 오늘 말씀 여기까지 듣겠습니다.




※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr

AD
AD

Y녹취록

YTN 뉴스를 만나는 또 다른 방법

전체보기
YTN 유튜브
구독 4,710,000
YTN 네이버채널
구독 5,654,548
YTN 페이스북
구독 703,845
YTN 리더스 뉴스레터
구독 14,362
YTN 엑스
팔로워 361,512