"인류를 파괴할 정도의 강력한 인공지능(AI) 모델이 나타났다. 개발 속도에 경각심을 가져야 한다."
생성형 인공지능 'ChatGPT'의 개발사 오픈AI 연구진들이 최근 이사회에 전한 경고 메시지입니다.
연구진이 경고한 인공지능 시스템은 인간처럼 기존 지식을 응용해 새로운 문제를 해결할 수 있는 것으로 전해졌습니다.
데이터 학습 범위 내에서만 연산할 수 있는 기존 인공지능 수준을 뛰어넘어 인간처럼 사고하고 연산할 수 있다는 얘기입니다.
연구진들은 이 모델의 연산 능력을 테스트한 뒤 충격을 감추지 못했다고 전해집니다.
인류를 파괴할 정도의 강력한 인공지능을 개발한 주인공, 최근 외신 헤드라인을 독점한 오픈AI 창업자 샘 알트만입니다.
자세한 내용, '한방이슈' 영상으로 준비했습니다.
해임 부른 '알트만의 야망'
알트만은 지난 11월 17일 오픈AI 이사회에 의해 전격적으로 해임됐다가 나흘 만에 다시 전격적으로 복귀했습니다.
외신들은 이번 사태를 인공지능이 더 빨리 발전하길 원하는 사람들과 발전 속도를 늦추려는 사람들 간의 충돌로 표현했습니다.
알트만의 복귀는 '속도'의 승리를 대변한다고 할 수 있습니다.
그리고 속도의 중심에는 막대한 이익, 즉 돈이 있습니다.
인공지능의 중요성과 영향력이 커지는 상황에서 이번 사태를 미래에 대한 우려보다 기업의 이익이 승리한 것으로 평가하는 이유입니다.
테크놀로지, 즉 기술의 전능함을 믿는 천재 개발자의 복귀와 함께 인공지능 개발은 이제 전속력 질주를 예고하고 있습니다.
이사회는 알트만의 해임을 발표하면서 "알트만이 일관되고 솔직하게 소통하지 않았다." 밝혔습니다.
무엇을 솔직하게 소통하지 않았는지 목적어가 빠져 있습니다.
해임을 결정한 구체적인 이유는 공개되지 않았지만, 많은 사람들은 알트만의 야망이 영향을 미쳤다고 보고 있습니다.
오픈AI 내부자들은 알트만이 인류를 위협할 정도의 획기적인 인공지능 기술을 개발했다고 말합니다.
데이터 없이 스스로 학습하고 연산하는 인공지능 모델인데 '큐스타(Q*)'로 불립니다.
일반적으로 ChatGPT 등 생성형 인공지능(AI)은 통계를 기반으로 다음 단어를 예측합니다.
예측은 데이터 학습 범위 내에서만 이뤄지며 인간처럼 기존 데이터를 활용한 응용 능력은 불가합니다.
그런데 큐스타는 데이터 학습 없이 연산이 가능합니다. 데이터에 없는 새로운 연산 문제도 능숙하게 풀 수 있습니다.
사람처럼 기존 데이터를 활용한 응용이 가능하기 때문입니다.
다시 말해 인간처럼 사고하고, 추론하고, 연산한다는 의미입니다.
하지만 오픈AI 이사회는 인간처럼 사고하고 연산하는 인공지능의 능력이 인류를 위협할 수 있다고 판단해 알트만을 해임했습니다.
2015년 비영리 단체로 설립된 오픈AI 이사회의 최우선 목적이 인공지능 개발의 속도보다 안전에 초점을 맞추고 있기 때문입니다.
인공지능의 영역을 넓히면서도 인간 우월성을 희생하지 않겠다는 목적, 즉 인공지능이 인류를 멸망시킬 수 있다는 불안감이 깔려 있습니다.
범용 인공지능(AGI)에 한발 더
실제로 알트만이 발전시킨 새로운 기술은 인공지능 산업의 새로운 단계를 의미하는 범용인공지능(AGI)에 근접했다는 평가입니다.
범용 인공지능(Artificial General Intelligence)은 인간과 유사한 학습 및 추론 능력을 가집니다.
현재 우리가 사용하는 인공지능은 주로 특정 작업에 특화된 '좁은 인공지능(Narrow AI)'입니다. 데이터 입력은 필수입니다.
하지만 범용 인공지능은 인간처럼 다양한 환경과 상황에서 배우고 적응하며 다양한 문제를 스스로 학습하고 해결합니다.
쉽게 말해 영화 아이언맨의 인공지능 '자비스'같은 존재입니다.
범용 인공지능은 아직은 이론적인 개념이지만, 인공지능 기술 발전의 최종 목표 가운데 하나입니다.
이제부턴 안전보다 속도…그것도 풀악셀
알트만은 해임 나흘 만에 다시 오픈AI로 돌아왔습니다.
대신 알트만의 개발 속도에 제동을 걸기 위해 해임 결정을 내렸던 이사 3명은 자리를 떠났습니다.
알트만을 해임한 이사회 멤버들이 알트만을 복직시키고 사임하지 않으면 회사를 그만두겠다고 공개 성명을 밝힌 직원 700여 명.
그리고 해임 직후 알트만과 개발자 브룩만을 고용하겠다고 밝힌 오픈AI의 투자회사 MS의 지원이 복귀 협상에서 큰 힘을 발휘했습니다.
알트만의 복귀와 함께 이사회는 새롭게 구성됩니다.
기존 6명에서 9명으로 늘어날 것으로 예상됩니다.
최대 지분을 보유한 MS가 한 자리를 차지할 것으로 예상되는 가운데 알트만의 복귀도 점쳐지고 있습니다.
무엇보다 기존 이사회에서 인공지능 개발의 안전을 중시한 멤버들이 모두 떠난 만큼 이제부턴 속도에 방점이 찍힐 전망입니다.
오픈AI 투자자와 경영진은 이사회의 권한을 제한하는 견제와 균형이 도입되기를 기대합니다.
현재 규정상 갑작스럽게 창업자를 축출하고 수십억 달러의 사업 가치를 위태롭게 할 수 있는 권한이 비영리 이사회에 있기 때문입니다.
업계에선 오픈AI가 학문적 이상주의에서 상업적 실용주의, 그러니까 좀 더 비즈니스 지향적으로 변할 것으로 예상합니다.
물론 이런 움직임을 걱정하는 목소리도 여전합니다.
'ChatGPT-5' 전속력으로 진행
지난해 11월 대중에 공개된 생성형 인공지능 'ChatGPT'는 인공지능 분야에서 확실한 선두주자입니다.
매일 수백만 명이 사용하고 있고, 소프트웨어 개발자의 약 80%가 경쟁사보다 오픈AI의 모델을 더 자주 사용한다고 답했습니다.
최근에는 이미지 생성 인공지능 DALL-E와 통합 서비스를 시작하는 등 ChatGPT의 활용도는 확장하고 있습니다.
가파른 성장세를 반영하듯 오픈AI의 2023년 매출은 13억 달러, 우리 돈 1조 6천9백억 원으로 예상되고 있습니다.
공개되지 않은 2022년 매출과 비교할 때 상당한 증가로 평가받습니다.
알트만의 복귀와 함께 오픈AI는 최신 모델인 ChatGPT-5와 다른 제품들을 출시할 것으로 보입니다.
오픈AI 내부 관계자는 이렇게 말합니다.
"직원들이 알트만의 상업적 비전을 추구하는데 더욱 적극적으로 나설 것이며 더욱 충성심을 갖게 될 것이다. 가장 강력한 모델인 ChatGPT-5에 대한 작업은 이제 전속력으로 진행될 것이다."
더 강력해진 야심가 알트만의 복귀
알트만의 가장 큰 승리는 이사회를 압박해 자신을 최고 경영자로 복귀시킨 것입니다.
더구나 최대 투자자인 MS와 직원들의 전폭적인 지지 속에 돌아왔습니다.
그는 기술의 전능함을 (종교적 수준으로) 믿습니다.
2021년 밝힌 '모든 것을 위한 무어의 법칙' 선언문이 대표적 예시입니다.
인공지능 혁명이 지구에 경이로운 부를 창출하고, 일의 본질을 바꾸고, 빈곤을 감소시키는 혜택을 가져다줄 것이라고 예측했습니다.
이 선언문에서 그는 자동화와 인공지능의 발전이 일자리를 줄일 수 있는 상황에서, 이러한 변화를 사회적으로 수용 가능한 방향으로 이끌어야 한다고 주장합니다.
기술이 인류에게 가져다줄 미래의 혜택을 최대화하는 동시에 그 부작용을 최소화하기 위한 사회적 경제적 대책을 마련하자고 촉구합니다.
이러한 그의 생각은 기술적 진보가 사회적, 경제적 문제를 해결하는 데 중요한 역할을 할 수 있다는 낙관적인 전망을 반영하고 있습니다.
[샘 알트만 / 오픈AI CEO (5월 26일 미 의회 청문회) : 저는 이 일(AI개발)의 반대편에 훨씬 더 많은 일자리가 있을 것이며 오늘날의 일자리는 더 나아질 것이라고 믿습니다. 무엇보다도 GPT-4를 피조물이 아닌 하나의 도구로 이해하고 생각하는 것이 중요하다고 생각합니다. 사람들은 이 부분을 혼동하죠.]
그는 또 핵융합의 열렬한 지지자이기도 합니다.
ChatGPT 같은 생성형 인공지능을 핵융합과 결합해 지식과 에너지 비용을 낮추면 아름다운 지수곡선이 만들어질 것이라고 주장합니다.
인공지능이 인류에 위협이 될 수 있다는 속도 조절론에 대해서는 반대 입장이 분명합니다.
이사회의 해임 결정 이틀 전, 인터뷰에서 이렇게 말했습니다.
"제가 다른 인공지능 회사와 다른 점은 인공지능이 좋다고 생각한다는 점입니다."
첨단 기술의 부작용보다 수혜에 집중해 개발 속도를 높이겠다는 의지로 해석됩니다.
알트만은 사용자가 직접 챗봇(Chatbot)을 구축할 수 있는 앱 스토어와 같은 새로운 도구, 즉 개인 맞춤형 AI를 출시하기를 원합니다.
이렇게 되면 영화처럼 인공지능과 공존하거나 인공지능에 의존하는 세상이 펼쳐질 수 있습니다.
무한한 가능성 그리고 중대한 책임
4차 산업혁명을 가져올 수 있는 기술, 인공지능의 미래는 무한한 가능성과 동시에 중대한 책임을 우리에게 던집니다.
한쪽에는 인공지능을 방치할 경우 인류의 존립에 위협이 될 수 있다며 엄격한 규제를 주장하는 세력이 있는 반면,
반대쪽에는 인공지능에 대한 두려움을 버리고 개발 속도를 높여야 한다는 세력이 있습니다.
하지만 속도와 안전 사이 균형을 어디에 둬야 하는지에 대한 모호함도 늘 따라다닙니다.
최근 바이든 대통령은 일정 성능 이상의 모델을 구축하는 모든 AI기업에게 안전성 테스트 결과를 공유하도록 강제하는 행정명령을 발표했습니다.
영국을 비롯한 유럽 역시 규제 움직임에 속도를 내고 있습니다.
속도를 높이든 낮추든, 현대 사회의 가장 혁신적 기술 중 하나인 인공지능은 이미 모든 산업 분야에 걸쳐 영향력을 확장하고 있습니다.
하지만 이 기술의 진보는 윤리적, 사회적 질문들을 함께 던지고 있습니다.
이에 대해 우리가 어떤 답을 찾을지 모르지만, 그 답이 우리 모두의 미래를 결정한다는 사실만큼은 분명해 보입니다.
기획 : 김재형(jhkim03@ytn.co.kr)
제작 : 이형근(yihan3054@ytn.co.kr)
참고 기사 : 이코노미스트, 뉴욕타임스, 월스트리트저널
AI 사용 프로그램 : Stable Diffusion, Midjourney, Adobe, Voicify
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]