■ 진행 : 호준석 앵커
■ 출연 : 김덕진 IT커뮤니케이션 연구소장
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라이브] 명시해주시기 바랍니다.
◇앵커> 그러면 오픈AI에서 만든 창업자인데 왜 샘 올트먼을 쫓아내려고 했던 것인가. 누가 쫓아내려고 했던 것인가, 이게 관심인 건데요. 거론되는 인물이 일리야 수 케버. 이 사람이죠? 어떤 사람입니까?
◆김덕진> 맞습니다. 일리야 수츠케버는 어떤 사라이냐면 가장 천재다라고 설명을 드릴 수 있을 것 같아요. 심지어 일리야 수츠케버가 어떤 사람이냐. 오픈AI 개발자 700여 명보다 이 한 사람이 낫다라고 할 정도로 중요한 사람인데요. 저 사람이 왜 중요하냐. 우리가 알고 있는 웬만한 AI 딥러닝의 역사에 항상 이 사람이 있었습니다. 제일 대표적으로 우리가 알고 있는 알파고, 역시 일리야 수츠케버가 함께했고요. 그리고 또 알렉스넷이라고 그전에 있었던 모습 같은 경우에도 개발을 주도했고 그다음에 우리가 알고 있는 딥러닝계의 아버지라고 불리는 제프리 힌턴이라는 사람이 있는데 그 교수가 있는데 학술적으로 유명한 사람들에게 교육을 받았고 해온 일들도 대단한 사람이에요. 그러면 그 사람이 이 오픈AI 에 오게 됐느냐. 처음에 일리야 수츠케버를 오픈AI에 데려왔던 이유가 뭐냐 하면 구글에 원래 있었는데 수츠케버한테 지금 구글이 전 세계적으로 AI 연구를 엄청나게 많이 하는데 연구는 하지만 안전에는 신경 쓰지 않는다. 결국에는 이것을 안전하게 만들기 위해서 우리가 별도의 조직을 만들자고 하는 그 이유로 데려온 거거든요. 거기서 느낄 수 있듯이 일리야 수츠케버자기가 가지고 있는 엄청난 기술과 함께, 능력과 함께 AI를 만들면서 이 AI가 너무 빨리 발전하는 것에 대한 두려움, 걱정들도 있었던 것 같아요. 그래서 그런 걱정에 대한 이야기들을 항상 여러 가지 발언에서 해 왔거든요. 그래서 그런 관점으로 보면 결국에는 지금 너무나도 빨리 움직이는 오픈AI의 기술 속도를 어느 정도 제어할 필요가 있지 않을까. 그리고 그럴 때 오히려 이런 관점이라면 지금 너무 달리고 있는 샘 올트먼을 우리가 회사에서 쉽게 말하면 내쫓더라도 이거에 대한 속도 조절이 필요한 것이 아닌가라고 하는 의도성에서 일리야 수츠케버가 이런 것들을 만들었다라고 볼 수 있을 것 같고요. 그런데 좀 아이러니한 것은 일리야 수츠케버가 이렇게 하고도 그러고 나서 결국은 이 회사 자체가 없어지는 건 원치 않았던 것 같아요. 왜냐하면 이사진들과 함께했다가 본인이 나중에 X에다가 내가 그런 결정을 한 것을 후회한다라는 글들을 올리기도 했고. 오히려 지금은 같이 연구하는 쪽으로 지금 다시 마음을 돌린 상황이죠.
◇앵커> 이사도 해임된 겁니까?
◆김덕진> 본인은 지금 이사진에서는 내려왔고요. 그럼에도 불구하고 직원으로서 같이 일을 하고 있는 것으로 나오고 있어서 실은 마이크로소프트가 만약에라도 샘 올트먼을 데려간다 하더라도 일리야 수츠케버를 데려오지 못한다면 반쪽밖에 안 되는 회사가 될 것이다라는 예측이 많았거든요. 그런 상황에서 오히려 오픈AI로 다시 모든 리더십이 돌아가면서 일리야 수츠케버 기술을 총괄하는 사람이 그 안에서 자리를 잡고 있기 때문에 그런 관점으로 보면 오히려 오픈AI의 관점에서는 오히려 기술을 조금 더 발전시킬 수 있는, 이러면서 견제가 될 수 있는 그런 것들이 다시 돌아왔다, 이렇게 설명드릴 수 있을 것 같습니다.
◇앵커> 37살이고요. 개발자 700명보다 낫다는 천재. 지금 말씀하신 대로 AGI와 인간의 관계는 이분이 한 발언 중에 AGI와 인간의 관계는 마치 인간과 동물과의 관계와도 같아서 인간이 동물을 미워하지 않지만 인간이 고속도로 놓는다고 동물한테 양해를 구하지 않지 않느냐. 그러니까 AGI도 이렇게 자기들이 스스로 발전하고 인간들보다는 AGI 위주로 하게 될 것이다라는 발언을 했지 않습니까? 이런 주장과 발언에 대해서는 대표님은 어떻게 평가하십니까?
◆김덕진> 말씀하신 대로 그 관점은 이런 것 같아요. 저는 AI을 우리가 너무 의인화할 필요는 없다. 이건 하나의 도구고 하나의 구조이다라는 거고요. 그런데 도구의 발전 속도가 너무 빠르니까 본인이 만들면서도 우리가 도구에게 너무 몰입할 필요는 없지만 도구의 속도가 너무 빨라져서 도구가 스스로 뭔가를 하게 되면 이건 문제가 생길 수 있다라고 생각하는 것 같아요. 실제로 최근에 AGI, 말씀하신 대로 일반 인공지능이라고 하는 게 어떻게 보면 AI가 사람의 명령이나 도움 없이도 스스로 뭔가를 생각하고 추론하고 대답할 수 있게 되는 것들. 이런 것들에 대한 생각을 하고 있는 거거든요. 그런데 이렇게 됐을 때 생길 수 있는 문제들을 예시들로 몇 개를 드는 거예요. 예를 들면 제프리 힌턴이라는 교수가 딥러닝의 아버지라고 불리는 사람인데 그 사람이 어떻게 얘기를 했냐면 만약에 이 방 안에서 AI와 같이 사람들과 지금 이 방에 한 4명의 사람이 있는데 우리가 환경을 조금 더 지키기 위해서 어떻게 하는 것이 가장 환경 파괴를 줄이는 것이냐라고 얘기할 때 AI가 여기 있는 사람들이 탄소 배출을 많이 하기 때문에 여기에 있는 4명 중에 사람이 2명 없어지는 게 가장 환경에 좋습니다라는 식의 답변을 한다는 거예요. 인 그런데 그 답변 자체가 어떻게 보면 AI는 감정이나 생각이 없기 때문에 그냥 자기가 생각한 대로 이야기한 건데, 만약에 그것을 인간이 필터나 이런 것들에 대해서 걱정을 하지 않고 바로 뭔가 자동으로 의사 결정에 들어가게 된다라고 하면 AI는 감정이 있어서 그렇게 하는 게 아니라 그냥 논리적인 데이터로 얘기한 거지만 그게 인간의 삶에 큰 영향을 미칠 수 있다라고 생각하는 것들이 지금 공존하고 있다, 이렇게 말씀드릴 수 있습니다.
대담 발췌 : 이미영 디지털뉴스팀 에디터
#Y녹취록
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]