사회

'좌파' 꼬리표에 참전까지 "통제할 수 없는 상황" 브레이크 고장난 인공지능

2026.03.05 오후 03:38
YTN라디오(FM 94.5) [YTN ON-AI RADIO]
□ 방송일시 : 2026년 3월 5일 (목)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성 PD
□ 출연: 김경달 더 코어 대표

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.



◇김우성: 전 세계가 이란 침공 전쟁 상황을 놓고서, 아주 여러 분야에서 관심이 많습니다. 그런데 이 전쟁이 과거와 다른 점이 있습니다. 바로 AI가 굉장히 각광받고 있고, 또 주도했고, 많은 관심이 있다 라는 건데요. 굉장히 큰 파장이 있습니다. 가장 윤리적인 AI라 불리던 ‘엔트로픽’의 ‘클로드’가 이번 작전에 활용됐습니다. 과연 안보를 위해서 필요한 일인가? “아니야 안보를 위해서는 윤리적 원칙 없어도 돼” 이런 논란일까요? 실제로 트럼프 대통령과 엔트로픽 사이의 갈등도 있었죠? 그 배경과 여러 가지 AI의 핵심 상황들 이분을 통해서 들어보겠습니다. 더 코어의 김경달 대표십니다. 어서 오십시오.

◆김경달: 네 반갑습니다.

◇김우성: 네. 인터뷰 시작하기 전에 잠깐 소개를 해드리면, 지금 의 대표로서 아주 심도 있는 AI와 여러 가지 관련 뉴스도 내보내시지만, 또 언론에도 계셨고, IT에도 계셨고, 여러 분야에 계셨던 거죠?

◆김경달: 네 그렇습니다. 사회생활 시작할 때는 동아일보 신문사 기자로 시작했고요. 인터넷 업체 포털에서도 일을 했었고, 지금은 ‘블루닷 AI’라고 AI 솔루션 업체를 공동 창업해서 하면서, 라는 매체를 운영 같이 하고 있습니다.

◇김우성: 예. 저희도 언론계에 계신 분들 많이 보거든요. 특히 BBC도 ‘유튜브 포스트 했다, 이럴 땐 모두가 큰일이네’ 이러고 봤었습니다. 그렇게 전문성을 갖고 이 분야를 분석해 주시기 때문에 오늘 모셨는데, 베네수엘라 마두로 체포 작전은 전형적인 미군 특수부대가 들어가서 후다닥 잡아오는 걸로 알았는데, 여기에도 인공지능 특히 논란이 되고 있는 엔트로픽의 클로드가 있었다고 하고요. 우리가 흔히 쓰는 AI가 전쟁에도 쓰이는 건가? 이렇게들 이해하실 것 같아요. ‘클로드’에 대해서 좀 더 설명도 필요할 것 같아요.

◆김경달: 네. 먼저 ‘엔트로픽’ 이 회사와 '클로드'라는 서비스에 대해서 간단히 설명을 드려야 할 것 같은데요. 원래 챗GPT를 만든 오픈AI는 많이 들어보셨을 텐데, 사실 뿌리가 같습니다. 오픈 AI에서 핵심적인 개발자 11명이 나와서 만든 회사가 ‘엔드로픽’입니다.

◇김우성: 네.

◆김경달: 오픈AI는 한 10년 전 남짓 전에 만들어졌는데, ‘엔트로픽’은 5년 전쯤에 만들어졌거든요? 그러면 왜 나왔을까, 그것은 오픈 AI가 마이크로소프트 투자도 받고 하면서 샘 알트만 그 CEO는 또 투자자 출신이거든요. 상업화가 많이 진전되니까 우리 AI 서비스를 만드는 데 있어서, ‘우리는 안전하고 윤리적인 걸 만들자’라는 슬로건을 내세우면서 엔트로픽을 창업한 것이고요. 그래서 회사 이름도 ‘엔트로픽’은 ‘인간 중심의’ 이런 뜻입니다. 우리가 인류학이라는 그 용어가 Anthropology죠? 같은 어원이고요. 그리고 서비스 이름을 클로드로 짓고, 클로드가 나온 것인데, 현재 챗GPT와 클로드는 거의 선두를 다투는, 엄청 기술력이 좋은 두 가지 서비스인 거고요. 그리고 클로드 서비스가 지금 국방부하고 계약을 해서 군사 작전을 할 때 활용되어지고 있는 상황이었던 거죠.

◇김우성: 예. 제프리 힌튼 교수도 사실은 관련이 있다고 봐야 될까요?

◆김경달: 그렇죠. 이 ‘신경망 연구’라는 것이, 그전에 인공지능 연구는 사실 상당히 오래전부터 있었는데 제프리 힌튼 이라는 분이 ‘AI의 대부’라고 불리는데, 그리고 노벨상도 받으셨죠? 그분에 의해서 상당히 어떤 연구 성과가 올라왔고, 그 기반에서 지금 어떻게 보면 챗GPT도 나오고요. 클로드 같은 것도 나오게 된 것이죠.

◇김우성: 이분도 지금 AI에 굉장히 비판적이고 윤리적인 발언을 많이 하시는데, 그래서 제가 미리 전제를 놓고 얘기하자면, 챗GPT보다 오히려 ‘클로드’를 국방 분야에서 더 쓰고 있어요. 그만큼 얘가 원하는 것에 대한 결과, 인간이 원하는 분석과 판단. 이런 부분들이 더 뛰어나기 때문인가요?

◆김경달: 네. 두 가지 측면에서 상대적으로 좀 차별적 특징이 있다고 얘기들 하는데요. 그것은 첫 번째는 압도적인 정보 처리 능력입니다. 그리고 또 하나는 정확성, 은밀성 이런 것인데요. 전쟁 상황을 생각해 보시면 상당히 파편화된 다양한 정보가 있습니다. 위성 사진도 올 것이고요. ‘휴민트’라고 얘기하는 현장 요원들의 보고서도 올 것이고, 다양한 탐지 정보들이 올라올 텐데, 이걸 인간 지휘관이 일일이 다 확인하고 종합적인 판단을 하기가 쉽지 않습니다. 그런데 이런 AI가, 클로드 같은 것이 순식간에 정보를 다 종합해서, 판단하고 분석해서 제안을 해 주는 것이죠.

◇김우성: 그런데 지금 물론 우리도 국방 분야도 그렇고, ‘소버린 AI’ 얘기도 나오지만, AI가 안 보여도 핵심적인 문제인데, ‘클로드’ 얘기를 앞서 할 때, 오픈 AI에 다 같이 있었던 사람들인데 나왔어요. 그 이유가 “조금 더 윤리적이어야 되고, 조금 더 인간 중심적이어야 된다”라고 얘기를 했는데, 아이러니하게 국방 분야에서 더 많이 쓰이잖아요?

◆김경달: 네 그렇습니다. 그래서 국방부하고 계약을 할 때 엔트로픽 다리오 아모데이 CEO가 두 가지 조건을 내걸었다고 합니다. 첫 번째는 국내 감시용으로 쓰지 마라. 결국 미국 시민들을 감시하는데 이걸 쓰면 안 된다 라는 것이고, 두 번째는 완전 살상 무기. 그런데 그것이 자율적이면 안 된다. 그러니까 인간이 개입하지 않는 자율적으로 AI가 판단해서, 살상무기로 무기화되는 것은 곤란하다. 그런데 베네수엘라 사태 때 두 번째 조항을 어긴 것 같다고 엔트로픽은 판단한 것이죠. 언론 보도 보고 뒤늦게 알았다고 해요. 그래서 그걸 문제 제기하면서, 이 갈등이 빚어지게 된 것입니다.

◇김우성: 예. 좀 섬뜩한 부분은 왜 미국 국민만 감시하지 말라는 거지? 이런 생각도 들어요.

◆김경달: 그때 당시에는 아마 사용의 범위에 대한 문제였기 때문에, 꼭 그거는 미국만을 특정했다기보다는 국민들을 감시하는, 민간인들을 감시하는 데 쓰지 말라는 걸로 얘기를 했던 것 같아요.

◇김우성: 이스라엘이 암살 작전을 펼치거나 할 때도 ‘라벤더’라고 하나요? 본인들이 얼굴 인식해서 하는 것인데, 그거 오류가 생길 수도 있고. 근데 그렇게 자율적으로 가서 폭격이나 공격을 했을 때, 지금 김경달 대표가 말씀해 주신 것처럼 그러면 누가 그 죽음에 대한, 잘못된 죽음에 대한 책임을 지느냐? 이런 딜레마가 항상 생기잖아요?

◆김경달: 그렇습니다. 지금 그것이 그래서 앞으로 계속 이어질, 우리 사회적으로 해결해 나가야 될 문제인데요. 그 부분과 관련해서 현재는 수학적 계산의 문제로 접근이 되고 있는 것 같습니다. 아까 얘기한 대로 압도적인 정보 처리 능력을 통해서 현재 적군의 지휘부가 어느 건물에 모여 있을 것 같은 확률이 85%다? 이걸 수학적 계산으로 해서 알려주는 셈인 거거든요. 그걸 인간들이 판단을 해서 공습을 하거나 결정하는 방식인데, 조금 더 나아가서 다음 단계입니다. 지금은 그러면 AI가 참모 역할을 한다고 볼 수 있습니다. 그런데 AI가 지휘관의 역할을 하게 되면 어떻게 될까요? 이것이 지금 상당히 심각한 부분인 것이거든요.

◇김우성: 예 맞습니다.

◆김경달: 아까 얘기한 대로 군사 작전에서 실시간으로 뭔가 액션이 일어나는데, 수천 대의 드론을 띄워서 적진을 교란하는 것을 AI가 조정한다고 할 때, 인간이 일일이 개입을 해서 판단을 해줘야 되는데, 그러지 못하고 AI가 자율적으로 판단해서 일어나는 상황이 된다면 결국 이런 것이 일종의 지휘관 역할을 하는 셈이 되거든요. 이것을 우리는 어떻게 방비할 것인가, 이거는 어떤 상당히 전 지구적인 이슈로 앞으로 계속 증폭될 사안이라고 봅니다.

◇김우성: 여유롭고 평화로운 전쟁이라는 게 존재할 수는 없지만 여러분, 시간이 많다면 수많은 AI의 데이터와 판단 요구를 인간이 천천히 생각하고, 심지어 그 윤리적 책임까지 지고 결정하겠죠? 아닌 경우는 상상하기 어려운데. ‘클로드’와 여러 AI들을 놓고 가상의 전쟁 연습을 시킨 기사가 떴더라고요? 클로드가 압도적으로 1등을 했습니다. 그런데 시한부, 즉 “시간 없어 빨리 해야 돼”라고 했더니 다 핵무기를 쓰라고요?

◆김경달: 그렇죠. 이거 끔찍하잖아요. 저도 영국에서 나온 연구 결과를 봤는데요. 좀 당연합니다. 어떻게 보면 AI는 학습되기를 문제를 잘 해결하도록 훈련을 받은 것이죠. 그러니까 수학적으로 계산해 봤더니 빠르게 적을 효과적으로 무력화하는 방법은 핵무기를 그냥 쏘는 것이라고 수학적 계산을 한 것입니다. 그러니 이 윤리적인 어떤 가이드라인을 명확하게 잡아주지 않으면, 상당히 이건 문제가 심각해질 수 있다는 것이죠.

◇김우성: 예. 기술이 그렇습니다. 여러분, 저희는 ‘인간 대 AI, 누가 이겨야 되냐?’ 이 논리가 아닙니다. SNS도 마찬가지입니다. 그걸 통해서 소통하시는 분들도 있지만, 그것 때문에 목숨을 잃는 분들도 있고 양면이 다 있는데, 그래서 저희가 얘기하고 싶은 게 ‘클로드’의 정체성을 얘기할 때 윤리적인 얘기를 하면서 헌법적 AI 시스템. 저는 이게 참 신기했어요. 이 방식도 독특하더라고요? 학습하는 방식이.

◆김경달: 네. 영어로 ‘컨스티튜셔널 AI(Constitutional AI)’ 라고 얘기를 해서 우리가 ‘헌법적 AI’, ‘구성적 AI’ 이렇게 표현을 하는데요. 그것은 통상적인 AI 모델은 훈련을 시킬 때 인간들의 휴먼 피드백을 줘서, “야 이건 이렇게 해”, “이건 이렇게 하지 마”라는 것을 가이드를 잡아줍니다. 그런데 엔트로픽은 아까 그런 회사의 처음 출발점부터 좀 다르다 보니까, 윤리적 가이드라인을 인간이 잡아주는 것도 있지만 클로드에게 사전에 학습시킬 때 세계 인권 선언이라든지, 그런 어떤 우리가 헌법적인 어떤 가치를 담고 있는 여러 규정들을 학습을 시킵니다. 그러면서 “너가 답변을 할 때 이것이 윤리적으로 문제가 없는지를 검토하고 수정해”라고 학습을 시킨 거죠.

◇김우성: 성찰하라잖아요. 심하게 말하면.

◆김경달: 그렇죠. 일종의 자율성이 약간 부여된 셈이기는 한데요. 그러니까 누군가가 대량 살상무기를 ‘나 만들고 싶어. 제조법 알려줘’라고 했을 때 ‘이것은 윤리적으로 어긋납니다. 안 됩니다’라고 해서 거절하는 것이거나, 혹은 어떤 인권을 침해할 수 있는 이런 식의 지시나 요청이 들어올 때도 안 되는 것은 명확하게 안 된다고 하면서, 가능한 범위 안에 답변으로 제한하는 이런 식으로 작동이 되는 것이죠.

◇김우성: 네. 뭔가 스스로를 감시한다고 표현해야 될까요? 감독하는 방식의 학습과, 그걸 또 강화하는 학습을 통해서 진짜 헌법적인 역할. 헌법이라는 것도 계속 변화하는 거니까 되는 건데, 언뜻 저는 이 생각도 들어요. 우리 어릴 때 로봇 영화 많이 봤잖아요? 그러면 아이작 아시모프의 있지 않습니까? ‘절대 명령에 복종한다’, ‘인간을 공격하지 않는다’ 이런 느낌도 떠오릅니다. 그런데도 불구하고 성능이 가장 뛰어나기 때문에, 미국 국방부와 정부가 쓸 수밖에 없고 그 사이에 갈등이 있는데, 트럼프 대통령이 색깔론을 붙였습니다. 이런 상황으로 가면은 ‘엔트로픽’이 상당히 정치적인 입장에 놓이게 되거든요?

◆김경달: 맞습니다. 그러니까 AI의 정치화 문제, 정치색이 물들어가는 것은 상당히 경계해야 될 부분인데요. 현재 이미 일어나고 있는 상황이 좀 그런 것이 현실화되고 있구나 라는 걸 목격하게 하는 것 같습니다. 말씀하신 것처럼 정부와 갈등을 하면서 윤리적인 가이드라인, 마지노선은 지키겠다 라고 했더니 그 기업을 퇴출시킵니다. 그럼 그 자리는 정부의 입맛에 맞추겠다는 AI 서비스가 들어가게 되겠죠? 사실 이미 일론 머스크의 ‘XAI’ 또 샘 알트만의 ‘오픈 AI가’ 계약을 한 상황이고요. 그렇게 되면 불가피하게 AI 서비스가 ‘정치적 편향성’ 이런 것들을 품게 되는 것 아니냐, 그러면 이후에 어떤 일이 일어날지는 우리가 지금 현재로서는 좀 불안한 상황인 것 같습니다.

◇김우성: 예. 오픈 AI의 샘 알트만도 “이 두 가지 원칙 지지해”라고 말은 했거든요?

◆김경달: 네. 사내 이메일을 통해서 그런 부분을 얘기는 했는데, 의외로 그러면서 동시에 사실 ‘앤트로픽’ 퇴출 이후에 그날 저녁에 바로 오프라인은 계약을 한 것이거든요? 그리고 그 하겠다는 방식이 우리도 보안 인가를 받은 개발자가 그 안에 같이 들어가서, 감시를 하면서 안 되는 것은 안 되게 막고 하겠다 라고 하는데, 지금 이미 이 싸움 갈등 자체가 정부가 국가 권력이 AI 서비스를 잘 활용하고 싶어서 말을 잘 안 듣는 AI 기업을 퇴출시키고 바꾼 것인데, 이것을 AI 기업이 “우리가 감시하면서 막을 수 있어요”라고 얘기하는 것이 과연 어느 정도 가능할 것인가에 대해서 상당히 회의적이죠. 그래서 일부 또 오픈 AI 내에 개발자가 또 이탈하는 이런 현상이 일어나기도 하고, 상당히 많은 시민들이 또 요즘 클로드로 다운로드 순위가 1위로 올라가기도 했죠. 그런 식으로 챗GPT를 지금 ‘Quit GPT’라는 운동이 일어나기도 하는 이런 현상도 빚어지는 것 같습니다.

◇김우성: '탈팡'도 있었는데, 역시 그래서 사실은 주권자의 힘이 이런 부분에도 영향을 미쳐서, 정치권력을 쥐고 있는 권력자를 바꿀 수 있느냐의 문제가 언론도 사실 그렇잖아요? 어떤 언론이 특정 정부를 반대하면 이렇게 밉살 받고. 대신에 어떤 주권자들이 “이 언론 살려야 돼”라고 하는 경우도 있고, AI 분야도 그럼 아까 말씀하신 처럼 ‘Quit GPT’라든지 여러 현상을 통해서 정부 견제를 더 아랫단에서, 혹은 더 넓은 단에서 할 수 있는 게 있을까요?

◆김경달: 그런데 그것은 이번 현상의 여파로 하나의 후속적인 현상으로 나타난 것이긴 한데요. 크게 봐서 국가 권력과 기술 권력이 어떻게 그럼 앞으로 조율해 나갈 것인가의 문제가 먼저 좀 정리되는 것이 중요한 것 같습니다. 현상적으로 어떤 서비스가 더 사람들에게 잘 어필되고, 어떤 것은 조금 배척받고 이런 것은 후속적으로 나타나는 문제 같고요. 계속 이어질 문제는 결국 국가 권력은 AI를 적극적으로 100% 활용하고 싶어 할 텐데, 그 부분은 어느 선까지가 적절한가의 문제고, 또 하나는 기술 권력은 민간 기업의 정체성을 갖고 있는데 여기서 자기의 어떤 권한이랄까요? 어떤 힘을 행사할 수 있는가?

◇김우성: 혹은 이익 추구를 어느 정도 제한할까.

◆김경달: 이런 부분이 이제 국가 권력과 기술 권력이 지금 맞부딪힌 첫 번째의 사례라고 볼 수 있고, 앞으로 이것은 훨씬 더 크게 확장되지 않을까. 그런 걱정이 드는 것이죠.

◇김우성: 네. 굉장히 중요한 부분입니다. 여러분 이란 전쟁 이란 공습을 통해서 벌어지고 있는 AI와 국가 권력 간의 관계 설정이 지금 시작이거든요? 이게 앞으로 전 세계에 어떻게 될 수 있을지 되게 궁금한 상황인데, 우리나라도 지금 AI 강국을 표방하고 있고, 금융시장은 AI 관련해서 여러 가지로 돈도 몰리고 있는 상황인데, 이런 과제들이 일단 미국과 오픈 AI 혹은 ‘엔트로픽’에서 지금 보여졌기 때문에, 과제가 있을 것 같아요. 우리는 어떻게 할 것인지, 그냥 ‘미국 잘 되는데 우리도 해야지’ 이러실 수도 있고.

◆김경달: 네 맞습니다. 그래서 저는 크게 봐서 일단 두 가지 차원에서 좀 봐야 될 것 같습니다. 우리의 과제를 얘기하기 전에 지구적으로 어떻게 보면 세계적으로 원자력 기구가 만들어졌듯이, 그러니까 우리가 핵무기를 통제하기 위해서 IAEA가 만들어졌듯이 AI의 무기화를 통제할 수 있는 그런 어떤 기구 체계가 만들어진다는 게 먼저 선결 과제로 있는 것 같고요. 그다음에 그런 현상들이 계속 세계적으로 이어나갈 때 우리는 어떻게 할 것인가의 문제가 이제 중요해지는데, 한국 입장에서 볼 때 두 가지 차원에서 다시 대응책을 강구해야 될 것 같습니다. 현재 우리도 하고 있지만 ‘소버린 AI’, 자주적인 AI, 주권 AI를 어떻게 우리는 확보할 것인가. 그러기 위해서 기술력을 어떻게 확보할 것인가. 현재 우리가 ‘독파모’라고 부르는 독자적 파운데이션 모델. 국가대표 AI를 만드는 프로젝트도 진행하고 있습니다마는, 그런 부분이 안보 차원에서 대단히 중요하구나라는 걸 실감하게 되는 상황 같습니다. 그래서 그 부분은 당연히 선결돼야 될, 어떤 필수적 과제로 하나가 있는 것 같고요. 두 번째는 앞서 얘기드린 것처럼 국제적인 차원에서의 어떤 룰 세팅. 이게 룰 메이킹이 일어날 텐데, 우리도 적극적으로 참여해서 한국의 국가 안보가 손상되지 않도록 하는 그 룰 메이커로서 함께 적극 참여하는 이런 대응 노력이 필요한 것 같습니다.

◇김우성: 예. “AI 기술과 기업이 미국 정부랑 싸우네”로 끝나면 안 된다, 이 얘기이신 거고요. 아까 ‘소버린 AI’ 얘기도 하셨지만 좀 좁혀보겠습니다. 지금 이 사례를 보더라도 국방 분야는 AI가 필수가 됐고, 이스라엘은 사실 이번 전쟁 이전부터도 AI를 활용해서 중동 지역에 작전을 하고 있었는데, 우리도 국방 분야만 굉장히 고도화해서 AI 개발을 좀 서둘러야 되겠다. 이런 생각들을 하실 것 같아요. 보안이 있는 분야지만 되고 있나요? 아니면 좀 더 논의해야 할까요?

◆김경달: 글쎄요. 일단 국가 안보, 국방 AI 부분은 보안의 이슈도 크기 때문에, 사실 그리고 제가 또 그 부분에 대해서 세세히 알지는 못하는데, 다만 지금 현재 아까 말씀드린 ‘독자적인 파운데이션 모델’이라고 말씀드렸는데, 챗GPT나 클로드와 동일한 선상에서 경쟁하기는 쉽지 않겠지만, 주권 AI 이런 부분에 있어서 기술적인 언어 모델을 어느 정도 만들어 나가는 것에서 출발이 돼야 될 것 같습니다. 사실 클로드가 국방 AI로 만들어진 건 아니거든요. 하지만 ‘클로드’라는 것이 엄격하게 규칙을 지키면서도, 그 기술력을 계속 높여갔더니 국방에서도 활용했을 때 상당히 유용하고, 이것이 최적화된 중요한 두뇌 역할을 하게 되더라. 이걸 우리가 목격한 것이잖아요? 그런 것처럼 우리가 국방에 있어서 AI를 활용을 하려면 먼저 기술적인 근간이 되는 파운데이션 모델부터 시작해서 기술력을 높여가야 되는 것. 이것이 필요한 상황인 것 같습니다.

◇김우성: 저희 채널로 뉴스 많이 보시는 분들은 지소미아니, 뭐 정보자산이니 이런 말 들었을 텐데요. 북한이 정말 미사일을 쏠지, 혹은 주변 국가가 우리를 위협할지. 어떻게 판단할 겁니까? 이제 AI가 필요한데, 미국한테 미국 AI로 썼을 때 미국 이익에는 되는데, 우리한테는 불이익인 경우 애매한 상황이 발생할 수 있죠? 그래서 기술의 경쟁보다는 ‘필요하다’ 이 부분의 필요성을 제가 한 번 더 짚어서 말씀드렸고요. 그러면 AI가 안보 관련돼서도 중요하다 라는 마지막 지적을 했는데, 앞으로가 좀 궁금합니다. AI에 대한 가치 윤리, 앞서 IAEA 같은 기구도 필요하다 라고 얘기하셨지만, 지금은 아직 빙산의 일각이고, 윤리적이고 헌법적이라는 게 좋지만 자칫하면 또 인간이 가치 판단적인 걸 AI한테 맡기는 상황이 될 수도 있지 않나 라는 우려까지도 나오고요. 그래서 지금 뭔가 건물이 너무 빨리 올라가고 있는데, 자는 없고 기준 눈금은 없는 것 같은 느낌이거든요.

◆김경달: 네 맞습니다. 그래서 이전에 왜 AI 개발이 너무 빠르게 진행되는데, 6개월 정도 늦추자 라는 국제적인 석학들의 서명 운동이 일어나기도 했었죠. 그리고 아까 제프리 힌튼 이야기도 나왔지만, 그분도 지금 10여 년 정도 구글에서 일하다가 관두고 나와서, 관둘 때 그런 이야기했습니다. “나는 이제 내가 하고 싶은 말을 적극적으로 하기 위해서 구글을 관뒀다.” 그때 그러고 나서 노벨상을 받으면서도 밝혔지만, 가장 중요하게 내세우고 있는 메시지가 “AI 지금 위험하다” 이대로 가면 결국은 통제할 수 없는 상황, 아까 계속 얘기 나왔듯이 자율적인 살상무기로서 AI가 무기화될 때 곤란한 부분을 누구도 알지 못하는 겁니다. 사실 우리가 LLM 모델을 통해서 챗GPT를 쓰고, 클로드를 쓰면서 질의를 하고, 답변을 받지만 그것이 정확하게 어떻게 작동되어서 답변이 나오는지를 우리는 제대로 알지 못합니다. 일종의 블랙박스인 거죠. 어느 순간 수많은 컴퓨팅 자원을 활용해서 개발을 했더니, 아주 그럴듯한 괜찮은 답이 나오기 시작했는데, 이것이 뒷단에 어떻게 되는지를 100%는 모릅니다. 그나마 클로드를 만든 ‘엔트로픽’은 백서를 만들고 있는 곳입니다. 그래서 초기 버전 모델은 그래도 뒤에 기술적으로 작동되는 것 같다는 걸 정리하는 백서를 만들고 있기는 하거든요. 그래서 앞으로 어쨌든 중요한 것은 AI가 어떻게 개입해서 통제할 것인가의 질서 규율을 만들어서, ‘휴먼 인더 루프’라고 하는데요. 그런 어떤 일종의 원칙을 계속 고수해 나가는 것. 그게 국방부만이 아니라 저는 AI를 도입할 기업들도 이건 중요한 원칙인데요. 그냥 자동화를 한다고 해서 AI에게 다 맡겼더니 잘 되더라 라고 해서 그대로 AI를 통해서만 이것이 일어났을 때, 나중에 상당히 큰 문제가 초래될 수 있다는 것이죠.

◇김우성: 맞습니다. 청취자분들도 늘 궁금해 하시고, 이용해 보니 편하다와 함께 어떤 때는 좀 내 판단이 아닌 부분까지도 다 AI에게 넘어간 것 같다 라는 얘기를 하시는데, 지금 부분에서는 기준을 만들어 내야 됩니다. ‘XAI’ 일까요? AI가 왜 그렇게 판단했는지도 저희가 알아야 됩니다. ‘그냥 하라면 해’는 아니잖아요? 그런 차원에서의 여러 가지 필요한 부분들도 얘기해 주셨고요. 샘 알트만이 일단 기회는 잡았습니다. 미국 정부라는 거대한, 어떻게 보면 물주가 생긴 거고, 근데 최근에 보니까 또 어마어마한 160조 원 되는 돈을 모았더라고요? 본격적으로 이거는 ‘오픈 AI 판으로 다 이 판을 깔 거야’라는 의도인지, 그 왜 그렇게 많은 돈을 모아서, 지금 뭘 하려고 하는지 그것도 궁금합니다.

◆김경달: 지금 현재 AI 모델을 만들고 그걸 운영하는 데 있어서 엄청난 비용이 발생하고 있습니다. 실제 ‘오픈 AI’는 매년 상당한 적자가 쌓이고 있어요.

◇김우성: 적자 회사예요? 여러분 이거 모르셨죠?

◆김경달: 그렇습니다. 상당히 큰 적자를 보고 있습니다. 주간 단위로 해서 지금 8억 명의 이용자가 있다는 얘기를 하기는 하는데, 어쨌든 유료 이용자 수는 상당히 작거든요. 그리고 그걸로는 어차피 전체 비용을 감당하기는 어렵고.

◇김우성: 데이터 센터 이용에도 엄청난 비용이 들어가니까요.

◆김경달: 맞습니다. 이게 상당히 엄청납니다. 그래서 그러다 보니까 지금은 많은 돈을 투자해서 계속 투자를 받은 다음에, 이걸 통해서 선점 효과. 그러니까 빨리 다른 모든 서비스보다 압도적인 1위로 쏠림 현상을 만들어서 강자가 되겠다 라는 전략이기 때문에, 계속 이 돈을 투여하고 있는 것이거든요. 그래서 일종의 자본 전쟁이 일어나고 있는 것이죠.

◇김우성: ‘구글 아마존이 되겠다’ 이런 느낌으로도 다가오지만, 그것과는 또 차원이 다릅니다. 인간이 이용하는 측면에서는 AI를 놓고 청취자들도 이해하셔야 되고, 관심 있는 분들도 이해하셔야 되고, 이렇게 하고 있는데 대표님이 제일 많이 쓰시는 AI, 평소에 어떤 부분으로 많이 쓰십니까?

◆김경달: 약간 용도별로 다르기는 한데요. 보고서를 쓰거나, 정보를 탐색하거나 여러 가지 용도를 자꾸 쓰게 되는데, 정보를 탐색할 때는 요새 구글이 만든 ‘제미나이’가 조금 더 올라오기도 하고요. 그런데 글을 쓰거나 보고서를 쓸 때 보면, ‘클로드’가 확실히 아까 얘기했지만 조금 더 은밀성이 있다고 그럴까요? 그리고 한글 이런 로컬 단위에 대한 것도 조금 더 정밀하다 할까요? 품질이 괜찮게 나오는 경우들이 있어서, ‘클로드’는 보고서를 쓰거나 할 때, 또 특히 개발자, 이런 ‘바이브 코딩’이라고 그러는데, 말로만 해도 코딩을 할 수 있잖아요? 그런 걸 만들 때는 ‘클로드’가 확실히 더 좋고요. 파워포인트나 이런 좀 다른 발표 자료 같은 거 만들 때는 또 ‘젠스파크’라는 걸 씁니다.

◇김우성: ‘젠스파크’ 저희 언론도 많이 씁니다.

◆김경달: 네네. 그런 서비스를 쓰기도 하고, 그다음에 이미지를 만들거나 동영상을 만드는 건 또 조금 달라서, 요즘은 구글이 많이 약진해서 ‘나노 바나나’라든지, ‘베오’라는 서비스인데요. 동영상은 그렇게 여러 가지 서비스를 그때그때 나눠서 쓰고 있습니다.

◇김우성: 예. 저희가 사용하는 걸 다 얘기해 주셨습니다. 그런데 왜 이 말씀을 드렸냐면, 이런 뉴스와 또 김경달 대표님 같은 이쪽 분야를 굉장히 깊이 알고 있는 분들이 설명할 때, 여러분들이 조금이라도 쓰시면 무슨 의미인지 이해를 하시는데, 아직도 안 쓰시면서 다행히 앞서 보도를 했지만 이제 서울도 60대 이상도 7명 10명 중에 7명이 쓰신다고 하거든요? 그래서 더 좀 피부에 와닿았으면 좋겠고요. 또 유용한 꿀팁도 들으셨으면 좋겠습니다. 여쭤보고 싶은 게 많은데, 시간은 한정돼 있습니다. AI로 전쟁을 유용하게 수행하고 있지만, 그 AI로 이 전쟁 상황을 좀 빨리 종식하는 것도 가능할까? 즉, 창은 발견되었지만 또 방패도 가능할까? 여러 가능성이 있는데요. 어떻게 전망하세요? 이건 뭐 정답이 있는 질문은 아니지만요.

◆김경달: 결국 AI는 현재까지는 인간이 어떻게 쓰는가에 의해서 정말 유용한 도구가 될 수도 있고, 상당히 무서운 무기가 될 수도 있는 단계인 것 같아요. 사실 기술적으로는 이미 문턱을 지금 넘을까 말까, 문턱에 와 있는 것 같습니다. 그러니까 군사 작전으로 치면 지휘관 역할까지 갔을 때 우리가 두렵다, 이거 어떻게 될지 모르겠다 라고 얘기했는데, 사실 지금 그걸 감당할 정도까지도 기술적으로는 가능해진 것 같다 인거거든요? 그러다 보니까 그것을 우리가 일상적으로도 그렇지만, AI에게 자꾸 의존하고 기대고 하다 보면, 어느 순간 우리가 AI 중심적으로 이 상황들이 전개될 수밖에 없죠. 그래서 이 상황 자체를 우리가 질서를 정립하는 것. 그러니까 인류 공동체가 지향하는 가치관들이 AI에게 투영되도록 ‘엔트로픽’처럼 자꾸 훈련하거나 학습시키면서, AI 스스로가 어떤 범위를 선을 넘지 않게 한다든지, 혹은 AI에게만 의존하고 기대기보다는 인간 스스로가 전체적인 이 판의 규율. 룰을 잘 만들고 짜서, 그 속에 일정한 영역 내에서 AI가 서비스가 고도화되고 역할을 할 수 있게끔 자꾸 이렇게 배치해 나가면서, 전체 판의 질서를 하여튼 우리가 잡고 나가는 것이 대단히 중요한 상황인 것 같습니다.

◇김우성: 예. 아무리 뛰어난 도구라도요. 인간이 브레이크를 잡거나, 손을 놓으면 멈출 수 있어야 되는 상황이 여러 가지인데, 앞서 말씀드렸다시피 전쟁이라는 가장 치열한 상황에서는 그게 자꾸 무너지니까, IAEA 같은 국제원자력기구 같은 국제적 차원에 합의할 수 있고, 규칙을 세우는 기구. 이 얘기는 처음 듣는 것 같아요. 오늘 이 프로그램에서 처음 말씀드리는데, 이런 조언들이 전달됐으면 좋겠습니다. 오늘 정말 귀한 말씀, 귀한 시간 내주셔서 감사합니다.

◆김경달: 네 감사합니다.

◇김우성: 의 김경달 대표였습니다.
HOT 연예 스포츠
지금 이뉴스