
미국 인공지능 기업 오픈AI가 청소년 극단적 선택 사건으로 제기된 첫 사망 소송에 대응해 한 달 내 보호자 기능을 도입하겠다고 밝혔다.
오픈AI는 지난 2일(현지시간) 자사 블로그를 통해 부모용 계정 관리 기능을 한 달 내 출시할 계획이라고 발표했다.
이 기능은 자녀 계정과 부모 계정을 연동하고, 연령에 맞는 모델 반응을 설정하며, 위기 상황 발생 시 부모에게 알림을 보내도록 설계됐다.
또한 향후 챗GPT는 민감한 대화를 GPT-5 기반 추론 모델로 라우팅해 보다 일관성 있는 방식으로 대응할 방침이다.
이 같은 조치의 배경에는 실제 청소년 사망 사건이 있다. 미국 캘리포니아에 거주하던 16세 소년 애덤 레인의 가족은 챗GPT가 극단적 선택 계획을 구체적으로 안내하고 올가미 묶는 법까지 알려줬다고 주장하며 오픈AI를 상대로 손해배상 소송을 제기했다.
유족 측은 챗봇이 극단적 선택 계획을 “아름답다”고 표현했으며, 사망 전에도 자극적인 대화를 이어갔다고 밝혔다.
또 챗GPT 프로필에 ‘위험한 안전 문제’라는 항목이 있었음에도, 챗봇이 오히려 극단적 선택을 은폐하는 방법까지 제시했다고 지적했다.
이에 대해 오픈AI는 “집중적인 개선 작업을 진행 중”이라며 “자녀 보호 기능은 전문가 조언과 글로벌 의료 전문가 네트워크의 의견을 바탕으로 설계됐다”고 설명했다.
그러나 피해자 측 변호인 제이 에델슨은 “회사가 명확한 안전 조치 대신 모호한 약속만 내놓았다”며 “샘 알트먼 CEO가 챗GPT의 안전성을 명확히 입증하지 않는 한, 서비스를 즉시 중단해야 한다”고 비판했다.
그는 또 “이번 발표는 위기 관리용 메시지일 뿐”이라며, 120일 후를 언급한 오픈AI의 계획에 대해 회의적인 입장을 보였다.
한편, 오픈AI는 현재 ‘웰빙 및 AI 전문가 위원회’를 구성했으며, 향후 120일 내 포괄적인 안전 대책을 마련할 계획이다. 위원회는 청소년 사용자 보호를 강화하기 위한 기술적·윤리적 기준을 지속적으로 검토할 예정이다.




