전체메뉴

국제
닫기
이제 해당 작성자의 댓글 내용을
확인할 수 없습니다.
닫기
삭제하시겠습니까?
이제 해당 댓글 내용을 확인할 수 없습니다

인스타그램 '노출 사진' AI로 차단..."청소년 보호 강화"

2024.04.11 오후 09:51
AD
미성년자의 정신 건강에 악영향을 주고 있다는 이유로 미국에서 소송 압박을 받는 사회관계망서비스, 인스타그램이 청소년 보호 강화 장치를 내놨습니다.

인스타그램 모기업인 메타플랫폼은 현지시간 11일 인스타그램에서 과도한 노출 사진, 성 착취 범죄 등으로부터 청소년들을 보호하고 잠재적 범죄자와 청소년의 상호작용을 어렵게 만드는 새로운 기능을 개발 중이라고 밝혔습니다.

메타는 인스타그램 다이렉트 메시지 DM 시스템에서 미성년자에게 전송되는 누드 이미지를 자동으로 감지해 흐리게 처리할 수 있는 인공지능, AI 기반의 도구를 시험 중이라고 설명했습니다.

나체 사진이 포함된 이미지를 받으면 자동으로 흐리게 처리되는 이 기능은 18세 미만의 사용자에게는 기본으로 적용되고 성인에게는 알림을 보내 이 기능을 적용하도록 권장됩니다.


메타는 지난 1월 미성년자가 유해 콘텐츠에 노출되지 않도록 해당 콘텐츠를 자동으로 차단하는 방안을 마련할 예정이라고 발표했습니다.

앞서 지난해 10월 미국 내 41개 주 정부는 인스타그램 등이 과도한 중독성을 갖도록 설계돼 미성년자의 정신 건강에 피해를 주고 있다며 메타를 상대로 소송을 제기했습니다.




YTN 김선희 (sunnyk@ytn.co.kr)


※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
AD

Y녹취록

YTN 뉴스를 만나는 또 다른 방법

전체보기
YTN 유튜브
구독 5,240,000
YTN 네이버채널
구독 5,544,250
YTN 페이스북
구독 703,845
YTN 리더스 뉴스레터
구독 28,313
YTN 엑스
팔로워 361,512