챗GPT 등 인공지능(AI) 챗봇이 정신 건강 관련 위험을 초래한다는 비판에 직면한 오픈AI가 AI의 잠재적 위험에 대비하는 책임자를 다시 모집합니다.
샘 올트먼 오픈AI 최고경영자(CEO)는 현재 공석인 '준비 책임자'(Head of Preparedness)를 모집하고 있다고 밝혔다고 미국 정보기술(IT) 전문매체 테크 크런치가 보도했습니다.
올트먼 CEO는 "올해 AI 모델이 정신 건강에 미치는 잠재적 영향을 미리 경험했다"며 "모델이 컴퓨터 보안 분야에서 뛰어난 능력을 발휘해 중대 취약점을 찾아냈다"고 말했습니다.
또 AI 모델의 능력이 어떻게 악용될 수 있는지 이해하고 이를 정교하게 측정하는 능력이 필요한 시대가 됐다고 강조했습니다.
이어 준비 책임자 직무에 대해 "중요한 시기에 핵심적인 역할"이라며 "스트레스가 따르는 직무이며 부임 즉시 깊은 난제 속으로 뛰어들게 될 것"이라고 언급했습니다.
오픈AI가 이처럼 AI의 위험 대비에 다시 나선 것은 챗GPT 이용자 일부가 망상에 시달리다 극단적 선택을 해 유족들이 여러 건의 소송을 제기했기 때문으로 풀이됩니다.
오픈AI는 원래 AI의 당면한 위험에 대비하는 '준비' 팀과 장기적 위험을 다루는 '초정렬'(Superalignment) 팀을 운영해왔습니다.
하지만 올트먼 CEO를 비롯한 경영진은 지난해 5월 GPT-4o를 출시하는 과정에서 모델의 빠른 공개를 위해 안전 관련 검증을 최소화하라고 지시해 이들 팀의 반발을 샀습니다.
이후 준비팀을 이끄는 책임자는 지난해 7월부터 올해 7월까지 1년간 직무 재배치나 퇴사 등을 통해 세 차례 변경된 끝에 현재 공석으로 남아있습니다.
오픈AI 공동창업자인 일리야 수츠케버 수석 과학자가 이끌던 초정렬 팀은 GPT-4o 출시 직후 수츠케버가 퇴사하면서 다른 팀으로 흡수되는 등 지난해 5월 사실상 해체됐습니다.
이렇게 안전 검증을 소홀히 한 GPT-4o는 실제로 청소년 등 일부 이용자들에 정신 건강 관련 문제를 일으키고 있다는 비판을 받고 있습니다.
오픈AI는 이와 같은 비판을 의식한 듯 최근 나이 예측 모델을 도입해 이용자가 미성년자로 판별되면 자동으로 18세 미만 환경을 강제 적용했습니다.
오픈AI는 챗봇이 이용자에게 지나치게 동조하는 것이 중독을 유발한다는 주장이 제기되자 친절함과 열정적 정도를 직접 조절할 수 있는 기능을 추가하기도 했습니다.
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]