
메타가 운영하는 사진 및 동영상 기반 소셜미디어 플랫폼 인스타그램이 미성년자를 보호하기 위한 기능을 추가하고 아동 성범죄 관련 계정 13만 5000여 개를 차단했다고 밝혔다.
지난 23일(현지시간) 메타는 자사 공식 블로그를 통해 인스타그램에서 약 13만 5000개의 계정을 차단했다고 발표했다.
이 계정들은 만 13세 미만 아동이 등장하는 콘텐츠에 성적인 댓글을 달거나 성인 계정에서 성적 이미지를 요청하는 등 약탈적 행위를 한 것으로 확인됐다.
또한 해당 계정들과 연관된 약 50만 개의 페이스북 및 인스타그램 계정도 추가로 삭제됐다고 덧붙였다.
회사는 이러한 조치 외에도 사용자가 상호작용했던 계정 중 일부가 부적절한 콘텐츠와 관련돼 삭제됐다는 사실을 알리고 경고 메시지를 함께 제공해 차단 및 신고를 유도했다.
또한 인스타그램은 청소년 이용자를 위해 ‘차단 및 신고’ 기능을 개선해 별도 절차 없이 불법 계정을 즉시 차단하고 동시에 신고할 수 있도록 했다.
이와 관련해 인스타그램은 지난 6월 한 달 동안 10대 사용자들이 총 200만 건에 달하는 계정을 차단했으며 이 중 절반은 안전 공지를 받은 뒤 이루어진 조치였다고 밝혔다.
이번 발표는 미국 연방거래위원회(FTC)가 인스타그램과 왓츠앱의 강제 분사를 요구하는 소송을 진행하면서 더욱 주목을 받았다.
소송 과정에서 메타 내부 문서가 공개되며 메타가 인스타그램에서 아동을 노리는 ‘그루머’의 활동을 심각하게 인식하고 있었던 정황이 드러났다.
앞서 인스타그램은 만 18세 미만 사용자를 자동으로 ‘청소년 계정’으로 설정하고 팔로우하지 않은 사용자의 콘텐츠 접근을 차단하는 기능을 도입한 바 있다.
이외에도 누드 이미지가 포함된 메시지로부터 미성년자를 보호하는 기능도 추가했다.
한편 미국 상원은 올해 초 미성년자를 온라인상의 피해로부터 보호하기 위한 ‘어린이 온라인 안전법’을 재발의했으며 이 법안은 메타를 비롯한 주요 소셜미디어 기업들에게 법적 주의 의무를 부여하는 내용을 담고 있다.




