【 스튜디오 】
안녕하세요. 엄지민입니다.
현상 이면에 숨겨진 사실을 좇아, 팩트추적! 지금 시작합니다.
【 인트로 】
더 빠르고 더 정확하게, 그리고 점점 더 차갑게.
전쟁의 판도가 바뀌고 있습니다.
방대한 데이터를 학습한 AI 알고리즘이 표적을 선별하고 그 결과는 생존과 죽음으로 이어집니다.
[임철균 / 한국전략문제연구소 전문연구위원 : AI가 급속도로 (데이터를) 가공해서 타격 대상을 특정해 내는 거죠. 도저히 대응할 수 없는 속도로 연속적인 공격작전이 전개되는 겁니다.]
불과 10여 년 전, 수개월이 걸리던 작전은 이제 하루 만에 끝나기도 합니다.
탐지, 식별, 추적, 타격으로 이어지는 이른바 킬체인 전 과정.
이 모든 과정에 인공지능이 개입하고 있습니다.
[임기범 / 서울과학종합대학원대학교 객원교수 : 수집된 데이터들을 우리가 원하는 대상에 맞춰서 분석함으로써 빠른 시간에 효율적으로 이루어질 수 있었다.]
이제 전장은 속도가 판단을 대신하고 그 판단은 곧 생사를 가릅니다.
오늘 우리는 AI가 바꾸고 있는 전장의 구조를 추적합니다.
【 스튜디오 】
▶엄지민
오늘의 팩트체커 윤성훈 기자와 함께합니다.
윤 기자. 최근 전쟁 양상 보면 완전히 새로운 단계로 접어든 것 같은데요.
총과 병력을 넘어서 이제는 보이지 않는 기술이 전장을 움직이는 것 같아요.
▶윤성훈
네, 지금 전장은 데이터와 알고리즘을 기반으로 한 AI 기술이 판도를 좌우하고 있습니다.
▶엄지민
전쟁의 방식 자체가 완전히 달라지고 있다는 거죠?
▶윤성훈
네, 누가 적인지, 어디를 공격할지 판단하는 과정에 AI가 깊숙이 개입하며 이른바 '전쟁의 시간'을 압축하고 있습니다.
【 VCR 】
2003년 이라크 전쟁 당시, 미군이 저인망식 수색을 벌인 끝에 사담 후세인을 9개월 만에 생포했습니다.
[폴 브레머 / 이라크 최고 행정관 (지난 2003년 12월) : 신사 숙녀 여러분, 우리는 그를 붙잡았습니다.]
하지만 20여 년이 지난 현재, 전쟁의 시계는 무서울 정도로 달라졌습니다.
이번 미국-이란 전쟁에서 미국이 이란 최고 지도자인 아야톨라 알리 하메네이를 제거하기까지 걸린 시간은 15시간가량.
탐지부터 타격까지, 모든 과정이 AI를 통해 실시간으로 압축된 결과입니다.
이 전례 없는 속도의 비밀은 데이터에 있습니다.
길거리 CCTV와 전자 센서에서 쏟아지는 방대한 데이터를 AI가 실시간으로 걸러내며 타깃의 위치와 동선을 핀셋처럼 집어낸 겁니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 종합된 출처 정보를 AI가 급속도로 가공해서 타격 대상을 특정해 내는 거죠. 이 정확도가 실제 사용하는 이스라엘군 정보장교들의 증언에 따르면 90%에 육박합니다.]
동시에 미국은 개전 직후 단 24시간 만에 1,000개에 이르는 표적을 타격하는 데 성공했습니다.
불과 12년 전 IS 공습 당시, 6개월 동안 2,000개가량의 목표물을 타격했던 것과 비교하면 비약적으로 빨라진 셈입니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 모든 업무를 통합시키다 보니까 원래는 30일 정도 걸릴 작업이 수분 이내로 단축되는 거죠.]
인간이 하던 복잡한 분석 업무를 거대 IT 기업들이 구축한 인공지능 시스템이 넘겨받았기 때문입니다.
AI가 방대한 데이터를 실시간으로 훑으며 수백 개의 표적 후보와 우선 순위를 분류한 뒤, 즉각 실행할 수 있는 작전까지 제시하고 있습니다.
[임기범 / 서울과학종합대학원대학교 객원교수 : (타깃에 대한) 효율적인 공격을 위해서 어떤 방법들, 시기, 다각적인 분석, 결과를 내는 부분들에서 AI가 많이 활용되고 있다.]
대응할 틈조차 주지 않는 속도 앞에 이란의 전력은 순식간에 궤멸됐습니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 이란의 혁명수비대는 제대로 된 반격을 해보지 못하고 전력의 절반 이상을 개전하자마자 일주일 내에 거의 상실해 버렸죠.]
【 스튜디오 】
▶엄지민
사실 AI 무기가 도입될 때만 해도 그 이유는 분명했잖아요.
아군의 희생을 줄이고 또 민간인 피해를 최소화하자 이런 취지였죠?
▶윤성훈
맞습니다, 데이터 기반의 정밀타격으로 불필요한 피해를 줄이겠다는 게 핵심이었습니다.
그런데 그 정밀함의 이면엔 비정한 계산법이 숨어 있습니다.
▶엄지민
구체적으로 어떤 방식인가요?
▶윤성훈
특정 목표를 제거하기 위해 민간인 피해를 어느 수준까지 감수할 것인지 그 기준이 설정되어 있는 겁니다.
▶엄지민
결국 윤리적인 판단 없이 목표 달성을 위해서 생명이 계산 가능한 값으로 다뤄지고 있다는 거네요.
▶윤성훈
네, AI는 데이터를 기반으로 표적을 추천하고 우선순위를 정합니다.
표적을 제거하기 위해 얼마만큼의 무고한 희생을 감수할지 수치로 환산하고 있는 겁니다.
▶엄지민
인간의 존엄이라는 게 AI가 계산하는 0과 1 사이의 수치로 바뀐 상황인 것 같은데, 비극적이기도 하고 굉장히 위험하게 느껴지네요.
▶윤성훈
네, AI가 살상 명단을 쏟아내는 속도가 워낙 빠르다 보니 인간이 그 판단을 검토하고 고심할 시간은 더 짧아지고 있습니다.
【 VCR 】
미국-이란 전쟁에서 미군은 첨단 AI 시스템을 통한 정밀타격을 자신했지만, 결과는 달랐습니다.
민간 시설과 학교에도 포탄이 쏟아졌습니다.
[이란 공습 피해 학교 학부모 (지난 3월) : 내 아이는 10살이에요. 여기저기 다니며 딸을 찾고 있습니다.]
공격의 근거로 의심받는 건 낡은 좌표와 불완전한 정보.
AI가 정보의 빈틈을 걸러내지 못하고, 오히려 ‘확신’으로 증폭시켰을 가능성이 있다는 겁니다.
[젠슨 존스 / 무기 전문 정보 분석가 (CNN 뉴스 / 지난 3월) : 아마도 타격 설정 과정 어딘가에서 타격 실패, 정보 실패로 여겨집니다.]
AI 전쟁의 구조를 더 극단적으로 보여주는 건 ‘시그니처 스트라이크‘.
누군지가 아니라 어떻게 행동했는지에 따라 표적 대상이 될 수 있습니다.
2023년 이스라엘-하마스 전쟁 당시 이 위험성이 드러난 사례로 꼽힙니다.
당시 이스라엘 군에서 활용된 AI 시스템 ‘라벤더’는 가자지구 주민 230만 명의 데이터를 분석해, 3만 7천 명을 ‘잠재적 암살 대상’으로 분류했습니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 하마스 대원들은 총 놓고 집에 돌아가면 민간인입니다. 이걸 구분할 방법이 없어요. 그런데 라벤더가 판단했을 때는 몇 월 며칠 몇 시에 이 요원이 통상적인 패턴을 분석했을 때 ‘집에 있는 시간이 있다. 이 시간에 타격하면 적중률 100%다.’ 그러면 타격이 들어가는 겁니다.]
이스라엘군 정보요원들이 공격 버튼을 누르는 데 걸린 시간은 고작 20초.
한 사람의 삶과 가족의 운명을 끝내는 결정이 20초 만에 내려졌다는 증언이 나옵니다.
더 잔혹한 방식도 있습니다.
‘웨얼스 대디’.
전투원이 전쟁터가 아닌 집으로 돌아오길 기다렸다가 타격하는 방식입니다.
표적이 된 대상을 죽이기 위해 그의 가족까지 희생 대상으로 삼는 겁니다.
실제 고위 지휘관 1명을 제거하기 위해 민간인 100명의 희생을 감수하고, 하급 전투원 1명에 대해서도 수십 명의 피해를 허용했다는 증언까지 나옵니다.
생명이 숫자로 환산되고 있지만, AI가 어떤 기준으로 표적을 정했는지 명확히 알기 어렵습니다.
[임기범 / 서울과학종합대학원대학교 객원교수 : 우리는 지금의 성능 좋은 AI가 ‘왜 이렇게 답하는지’ 모르거든요. 우리는 알고리즘만을 제공했지, AI가 어떻게 학습하고 왜 이런 답을 내는지 아직도 몰라요.]
【 스튜디오 】
▶엄지민
사실 우리가 일상에서 AI를 써도 꼭 검증을 하는데, 정작 전쟁터에서는 AI가 무분별하게 사용되면서 희생도 더 늘어나는 것 같아요.
▶윤성훈
네, 잊지 말아야 할 건, 알고리즘이 아무리 정교한 리스트를 뽑아내더라도 최종 승인 버튼을 누르는 존재는 여전히 인간이어야 한다는 점입니다.
통제하지 못하는 AI 기술은 결국 인류의 지속에도 영향을 미칠 수밖에 없는데요.
기계의 속도보다 인간의 판단이 더 무거워야 하는 이유입니다.
【 VCR 】
영국 킹스칼리지 런던 연구팀이 발표한 AI 전쟁 시뮬레이션 결과.
21차례의 가상 전쟁에서 챗GPT와 클로드, 제미나이 등 AI 모델은 다른 선택지가 있는데도, 21번 가운데 20번.
95%의 확률로 핵전쟁을 택했습니다.
상황이 불리해도 항복하는 경우는 한 번도 없었습니다.
[임기범 / 서울과학종합대학원대학교 객원교수 : 이 전쟁에 이겨야 하고 소위 말하는 적을 섬멸시켜서 내가 승리해야 한다. 이것만을 목표로 준다면 AI가 못 할 짓이 없겠죠. 학교 건물을 폭격한다든가 (핵무기 버튼)을 누른다든가 이런 부분들을 서슴지 않게 할 수 있을 텐데….]
1945년 히로시마 원폭 투하 이후 핵무기 사용은 인류가 넘지 말아야 할 선으로 여겨져 왔지만, AI는 핵무기를 최후의 수단이 아닌 승리를 위한 선택지 중 하나로 취급했고, 핵 버튼을 누르는 데 주저하지 않았습니다.
[송태은 국립외교원 교수 (YTN 출연 / 지난 3월) : 영국의 팀이 워 게임을 보여줬던 이유는 AI 기술의 파괴력을 자랑하기 위한 것이 아니라 핵을 억제하는 차원에 있어서는 AI가 절대 사용되어서는 안 된다는 그 부분을 더 강조하기 위한 목적이 크다고 봅니다.]
더불어 빅테크 기업들의 AI 기술이 군사 분야에 활용되면서 전쟁의 주체가 국가를 넘어 기업으로까지 확장되는 양상도 나타나고 있습니다.
미국의 IT 기업 앤트로픽은 AI 모델 ‘클로드’에 대해 자율 살상 무기나 대규모 감시 목적 활용을 제한하는 정책을 두면서 미 국방부와 갈등을 빚기도 했습니다.
[헬렌 토너 / 전 OpenAI 이사회 멤버 (지난 3월) : 앤트로픽이 동의할 수 없었던 부분으로, 자사 시스템을 '국내 대규모 감시'나 '자율 무기'에 사용하지 않는다는 것이었습니다.]
[피트 헤그세스 / 미국 국방부 장관 (지난 2월) : CDAO(최고 디지털 및 인공지능 사무국)는 국방부 데이터 명령을 시행하고 모든 관련 데이터를 연합 IT 시스템 전반에 걸쳐 AI 활용에 사용할 수 있도록 모든 권한을 행사할 것입니다. 그리고 우리는 전쟁 수행을 방해하는 AI 모델은 사용하지 않을 것입니다.]
군사용 AI의 책임 소재를 두고도 논란이 빚어지고 있습니다.
현재 대부분의 군사용 AI는 표적을 생성하고 우선순위를 제시하면 인간이 최종 승인하는 구조로 운용되고 있습니다.
문제는 이 최종 승인 과정이 점점 형식화되고 속도가 빨라지면서 실질적인 통제가 느슨해질 수 있다는 점입니다.
더군다나 오폭 등 민간인 피해가 발생한 경우, 알고리즘을 설계한 기업, 기술을 도입한 군 조직, 최종 승인자 가운데 그 누구도 책임지기 어려운 상황이 빚어질 수 있다는 겁니다.
[임기범 / 서울과학종합대학원대학교 객원교수 : 폭격이 가해졌을 때 발생할 수 있는 피해, 이런 부분들이 얼만큼인지 면밀하게 검토해 보고 그다음에 승인 버튼을 누르는 것이 가장 필요한 부분들이 아닐까 싶어요. 사용자의 최종 버튼에 책임이 더 있어야 하지 않나?]
【 스튜디오 】
▶엄지민
이렇게 AI 무기화를 둘러싼 논란은 계속되고 있지만, 각국의 개발 경쟁은 더 빨라지고 있다고요?
▶윤성훈
네. 군사용 AI 기술에 대한 우려 속에서도 각국은 미래전에 대비하기 위해 군사용 AI 기술 개발에 박차를 가하고 있습니다.
우리나라 역시 국민과 군인을 보호하기 위한 차원에서 군사용 AI 기술 개발에 속도를 내고 있습니다.
【 VCR 】
서울에 있는 소프트웨어 개발 기업.
이곳에서는 군사용 AI 기술 개발이 한창 진행되고 있습니다.
[최정주 / 군사용 AI 개발업체 CTO : 드론을 통해서 실종자를 구출하는 목적을 위해서 개발한 비전 기반의 인공지능이고요.]
AI는 낙오된 실종자 수색뿐 아니라 무인 정찰 임무에도 적용되고 있습니다.
[최정주 / 군사용 AI 개발업체 CTO : 시속 290km로 정찰 임무를 수행하는 자율 비행체를 목표로 개발하고 있고요. 위치에 도달하고 시각 정보라든지 지휘부로 전달하고 무사히 임무를 마치고 귀환하는….]
나아가 AI는 전장 상황을 분석하고 지휘관의 결심을 지원하는 단계로까지 개발 속도가 붙고 있습니다.
[최정주 / 군사용 AI 개발업체 CTO : 여러 가지 상황을 고려해서 지휘관이 판단하는 목적을 주면, 가장 적합한 화력 자산을 추천하고 실제 시행됐을 때 ‘이러이러한 효과가 있습니다.’라고 지휘관에게 조언할 수 있는….]
업체 측은 AI 기술의 정교화가 오폭 등의 사고를 막고 오히려 무고한 희생을 줄이는 해답이 될 것으로 보고 있습니다.
{최정주 / 군용 AI 개발업체 CTO : 사람이 판단해서 발생할 수 있는 실수보다 인공지능이 판단해서 발생하는 실수를 훨씬 적게 해서 민간인의 피해를 최소화하고….]
전문가들은 독자적인 군사용 AI 기술 확보가 저출산과 고령화에 따른 병력 감소 문제를 해결할 해법이 될 수 있다고 조언합니다.
[임기범 / 서울과학종합대학원대학교 객원교수 : 전 세계 거의 유일한 분단국가인 우리나라도 (독자 AI 모델이) 중요하거든요. 정말 결정적인 순간에 그들이 모델 제공을 하지 않는다면 우리는 굉장히 위험한 상황에 빠질 수도 있어서….]
다만, 넘어야 할 과제도 적지 않습니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 민간의 인공지능 발전 속도를 군에서는 절대로 따라갈 수가 없습니다. 여러 가지 보안 절차가 있기 때문에 그렇죠.]
이와 달리 미 국방부는 올해 군용 AI의 우위를 확보하겠다는 기조를 담은 전략 지침까지 발표하면서 선두를 달리고 있습니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 미군이 사용하고 있는 JADC2라는 합동 지휘 통제 체계가 있어요. 이 JADC2 내에서 기능하고 있는 게 팔란티어라는 군용 AI들이 여러 요소를 정밀하게 엮어서 빠른 시간에 정보 처리를 해주고 분석해 주는 기능을 수행하고 있거든요.]
AI 강국으로 꼽히는 중국 역시 군용 AI를 군 현대화의 핵심 전략으로 삼고 있습니다.
특히 AI와 드론을 결합한 자율 무기 체계 개발을 통해 살상력을 높이는 데 주력하고 있다는 평가입니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 중국은 지능화 전쟁 전략이라는 것을 내세웠습니다. 그래서 전쟁 자체를 자동화하기 위한 여러 노력을 기울이고 있습니다. 특히 군용 드론봇의 운영에 있어서는 중국은 세계 최고 수준으로 나아가고 있습니다.]
반면 유럽 중심의 NATO 진영에서는 군용 AI의 필요성을 인정하면서도 인간의 통제와 법적 책임 그리고 시스템의 신뢰성 확보를 강조하고 있습니다.
【 스튜디오 】
▶엄지민
이야기를 종합해 보면 군사용 AI 도입은 일단 피하기 어려운 상황으로 보이는데
다만 그만큼 우려 역시 여전하죠?
▶윤성훈
맞습니다.
냉전 이후 핵무기 사용의 일종의 ‘레드라인’이 설정됐던 것처럼 AI의 완전 자율 무기화에 대해서도 국제적인 통제 기준이 필요하다는 목소리가 나오고 있습니다.
【 VCR 】
최근 벌어지는 전쟁에서 군용 AI의 치명성이 높아지면서 이를 논의하기 위한 국제적인 움직임이 이어지고 있습니다.
유엔은 AI와 연계된 완전 자율 살상 무기 규제 방안을 논의하고 있는데, 인간의 실질적인 통제가 없는 무기는 금지해야 한다는 입장입니다.
[안토니우 구테흐스 / 유엔 사무총장 (지난 2019년) : 인간의 생명을 빼앗을 권한과 판단권을 가진 기계는 정치적으로 용납될 수 없고, 도덕적으로 받아들일 수 없으며 국제법으로 금지되어야 합니다.]
하지만 미국과 러시아, 중국 등 군사 강대국들은 전면 금지에는 신중한 입장을 보이고 있어 합의가 쉽지 않은 상황입니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 우리가 개발하는 것만큼 주변국 역시 우리의 인공지능에 위협을 느껴서 본인들의 인공지능을 더욱더 발전시킬 것입니다. 결국은 무한궤도 식으로 경쟁을 이어갈 수밖에 없는 거죠.]
이처럼 AI의 완전 자율 무기화를 둘러싼 경쟁이 격화되는 가운데, 전문가들은 중견국의 위치에 있는 우리가 국제 규범 설계에 적극적으로 나서야 한다고 강조합니다.
[임철균 / 한국전략문제연구소 전문연구위원 : 우리가 먼저 치고 나가서 정확한 기준점, 레짐(체제)을 제시하고 연합 전력들이 함께 살아갈 수 있는 변화, 발전, 도전이 필요하다.]
이런 흐름 속에 우리나라에서도 군용 AI를 제도적으로 통제하려는 움직임이 시작됐는데 지난 1월에는 ‘국방인공지능법 제정안’이 국회에 발의되었습니다.
이 법안에는 생명이나 신체에 위해를 줄 가능성이 있는 경우 인간의 개입을 보장해야 한다는 내용이 담겼습니다.
전문가들 역시 AI에 의한 완전 자율 살상 무기에 대해 엄격한 통제가 필요하다고 강조하고 있습니다.
[임기범 / 서울과학종합대학원대학교 객원교수 : 어떤 경우에도 완전 자율 살상 무기는 안 된다는 생각이고요. 사람의 확인이 들어갈 수 있는 부분들을 의무적으로 이차적으로는 국가에서 그런 법들을 만들었기 때문에 이것들을 검증하고 확인할 수 있는 주기적으로 검증하는 절차들, 감사하는 절차들이 (필요하다).]
국가의 감시와 기업의 책임이 함께 요구되는 상황.
일론 머스크와 샘 올트먼 같은 IT 기업 수장들 역시 군사적 활용에 대한 위험성을 거듭 경고하고 있습니다.
기술보다 윤리가 앞설 수 있을지, 그 통제가 과제로 남아 있습니다.
【 스튜디오 】
▶엄지민
AI 무기는 이미 전장의 피할 수 없는 현실이 됐는데요.
이제 남은 건 이 칼날을 어디까지 허용할 것인가 여기에 대한 우리의 선택인 것 같습니다.
▶윤성훈
알고리즘이 아닌 인간이 온전히 책임지는 전쟁 그 엄중한 기준을 세우는 일은 결국 우리의 몫입니다.
▶엄지민
윤 기자, 수고 많았습니다.
오늘 팩트추적은 여기까집니다.
저희는 다음 시간에도 현상 이면에 숨겨진 사실을 좇아, 시청자 여러분의 목소리에 귀 기울이겠습니다.
함께해 주신 여러분 고맙습니다.
-
윤성훈 기자 [ysh02@ytn.co.kr]
본방송: 수요일 밤 11시 20분
재방송: 토요일 오후 17시 20분
■YTN [팩트추적] 제보
[메일]: fact@ytn.co.kr
[전화]: 02-398-8602~3
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]