인공지능, AI가 만들어내는 합성 사진은 이제 실제 사진과 구분하기 어려울 정도로 정교하게 발달하고 있습니다.
이런 가짜 사진이 실생활에도 혼란을 끼치는 사례가 잇따르면서 규제가 시급하다는 목소리가 나오고 있습니다.
미국의 국방부 건물, 펜타곤 근처에서 검은 연기가 피어오르고 있습니다.
얼핏 보면 생생한 폭발 사고 현장을 담고 있는 듯한 이 사진, 알고 보니 AI가 만든 가짜였습니다.
현지 시각으로 어제(23일) 아침 SNS를 통해 유포되기 시작한 이 가짜 사진은 러시아 관영 매체와 트위터 금융뉴스 계정 등에 잇따라 공유되며 혼란을 키웠습니다.
급기야 사진 유포 직후엔 S&P 500지수가 최대 0.3%까지 하락하며 증시에도 영향을 미친 것으로 파악됐습니다.
이를 두고 AI가 만든 사진이 시장을 움직인 첫 사례라는 우려가 나오기도 했습니다.
이처럼 AI가 만든 가짜 사진의 유포는 최근 들어 더욱 빈번하게 일어나고 있습니다.
앞서 지난 3월엔 미국 트럼프 전 대통령이 경찰에 쫓기다 연행되는 듯한 가짜 사진이 유포되기도 했죠.
문제는 이런 현상이 단순한 우발적 사건에 그치지 않고 사회 전반에 혼란을 주기 시작했다는 점입니다.
세계 각국의 입법기관을 비롯해 구글 등 IT 대기업도 AI를 활용한 가짜 뉴스를 방지하기 위한 본격적인 움직임에 나섰는데요,
빠르게 발달하는 AI의 기술 속도를 따라가려면 제도 정비 역시 한층 속도를 내야 할 것으로 보입니다.
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]