메타가 청소년의 자살·자해 관련 검색을 보호자에게 알리는 기능을 도입한다.
26일, 메타는 공식 블로그를 통해 ‘청소년 계정’ 중 보호자 감독 기능을 사용하는 인스타그램 계정을 대상으로 청소년이 짧은 시간 안에 자살이나 자해 관련 용어를 반복 검색할 경우 부모에게 알림을 발송할 예정이라고 밝혔다.
알림 대상에는 자살·자해를 조장하는 표현뿐 아니라 '스스로를 해치고 싶다'는 취지의 문구, ‘자살’, ‘자해’ 등 일반 용어도 포함된다. 보호자는 이메일, 문자메시지, 왓츠앱, 앱 내 알림 등을 통해 알람을 받으며, 알림 화면에서는 관련 상담 자료와 전문가 가이드가 함께 제공된다.
메타는 해당 기능이 부모의 조기 개입을 돕기 위한 장치라고 설명했다. 다만 과도한 알림으로 효용이 떨어지지 않도록 짧은 기간 내 여러 차례 검색이 이뤄진 경우에만 통보하도록 기준을 설정했다고 밝혔다. 이 과정에서 자살·자해 자문 그룹 및 외부 전문가의 의견을 반영했다는 설명이다.
이번 조치는 기존 보호 정책의 연장선이다. 인스타그램은 자살·자해를 미화하거나 조장하는 콘텐츠를 금지하고 있으며, 관련 검색 시 결과 대신 도움 기관과 핫라인 정보를 안내하고 있다. 긴급 위험이 감지될 경우에는 응급 서비스에 연락하는 체계도 유지한다.
메타는 청소년이 인공지능(AI)을 고민 상담 창구로 활용하는 사례가 늘고 있는 점을 고려해 AI 대화에서 자살·자해 관련 주제를 시도할 경우 보호자에게 알리는 기능도 연내 도입할 계획이다.
알림 기능은 미국, 영국, 호주, 캐나다에서 먼저 시행되며 올해 안에 한국 등 다른 지역으로 확대할 예정이다.
※ 우울감이나 극단적인 생각으로 힘들거나, 주변에 이런 어려움을 겪는 사람이 있다면 자살예방 상담 전화 ☏109, 청소년 상담 전화 ☏1388을 통해 24시간 도움을 받을 수 있습니다.
YTN digital 정윤주 (younju@ytn.co.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]