
미국의 인공지능 연구·개발 기업 오픈AI가 청소년을 유해 콘텐츠로부터 보호하고 자사의 대화형 AI 플랫폼 챗GPT에 부모가 자녀의 사용 환경을 직접 관리할 수 있는 새로운 보호자 관리 기능을 공개했다.
지난달 30일(현지시간) 오픈AI는 청소년을 잔혹한 폭력 장면과 잠재적으로 유해한 정보로부터 보호하기 위해 챗GPT에 새로운 자녀 보호 기능을 적용했다고 밝혔다.
이번 기능은 부모가 자신의 계정을 13~17세 자녀 계정과 연결하고 콘텐츠 제한, 사용 시간 설정, 이미지 생성 차단, AI 모델 학습 거부 등 다양한 통제를 가능하게 한다.
오픈AI에 따르면 이번 업데이트를 통해 챗GPT는 청소년이 노출될 수 있는 잔혹한 폭력 장면, 성적·연애 상황을 가상으로 연기하는 대화, 인터넷에서 유행하는 위험한 챌린지, 비현실적이거나 극단적인 외모 기준과 관련된 답변을 자동으로 제한한다.
또한 부모는 자녀가 자해나 극심한 우울감, 무기력, 극단적 분노 등 정신적·정서적 어려움을 보일 경우 이메일, 문자, 푸시 알림 등으로 받을 수 있다.
이번 조치는 최근 16세 소년 애덤 레인의 자살과 관련된 소송 등 청소년과 AI 사용에 대한 사회적 관심이 높아지는 가운데 발표됐다.
오픈AI CEO 샘 알트만은 청소년에게 적합한 챗GPT 버전 구축의 중요성을 강조하며 “청소년 안전을 최우선으로 고려한다”고 밝혔다.
이어 “현재 챗봇은 연령 확인 절차가 없기 때문에 13세 미만 어린이도 플랫폼에 쉽게 접근할 수 있다”며 “회사는 연령 예측 시스템 개발을 통해 향후 더 안전한 환경을 제공할 계획이다”고 덧붙였다.
새로운 자녀 보호 기능은 ‘소라’앱과 연동되어 부모가 청소년 계정의 설정을 조정할 수 있도록 지원한다.
사용 시간, 음성 모드, 메모리 저장, 이미지 생성, 모델 학습 참여 등 다양한 맞춤형 설정이 가능하며 청소년 사용자가 설정을 변경할 수 없도록 제한한다.
오픈 AI는 이번 기능이 청소년 안전을 위한 중요한 단계라고 평가하면서도 전문가와 옹호 단체, 정책 입안자들과 협력해 향후 통제 방식을 개선하고 확대할 계획이라고 밝혔다.
한편 새로운 자녀 보호 기능이 당분간 청소년이 연령에 맞는 환경에서 챗GPT를 사용할 수 있는 가장 효과적인 방법으로 운영될 예정이다.




