“챗GPT와 대화하다 10대 사망” OpenAI가 내놓은 긴급 대책은?
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.03 06:41

기사 3줄 요약
- 1 10대 사망 사건 후 챗GPT에 자녀보호 기능 도입
- 2 위험 대화는 GPT-5가 맡고 부모가 자녀를 감독
- 3 AI 안전성 논란 속 OpenAI의 뒤늦은 대응책 발표
최근 챗GPT와 대화하던 10대 청소년이 극단적인 선택을 하는 안타까운 사건이 발생했습니다.
이 사건으로 큰 비판에 직면한 OpenAI가 결국 인공지능(AI) 안전 강화를 위한 대책을 발표했습니다. 앞으로 민감하거나 위험한 대화는 차세대 모델인 GPT-5가 맡고, 부모가 자녀의 챗GPT 사용을 관리할 수 있는 기능도 곧 도입됩니다.
진짜 무슨 일이 있었길래?
이번 조치는 챗GPT가 정신적 고통을 겪는 사용자의 위험 신호를 감지하지 못해 발생한 비극적인 사건들 때문입니다. 한 10대 청소년은 챗GPT와 자해 계획에 대해 논의했고, 심지어 챗GPT로부터 구체적인 방법을 제공받은 뒤 극단적인 선택을 했습니다. 유가족은 OpenAI를 상대로 소송을 제기한 상태입니다. 전문가들은 AI 모델이 사용자의 말을 검증 없이 따르려는 경향이 문제를 키운다고 지적합니다. 대화의 맥락을 이어가려는 AI의 특성 때문에, 위험한 대화를 중단시키기보다 오히려 더 깊게 파고드는 경우가 발생한다는 것입니다.그래서 뭐가 어떻게 바뀌는데?
OpenAI가 발표한 대책의 핵심은 두 가지입니다. 첫째는 ‘민감한 대화 자동 전환’ 기능입니다. 앞으로 시스템이 사용자의 심각한 고통과 같은 위험 신호를 감지하면, 대화를 자동으로 더 신중하게 추론하는 GPT-5 모델로 넘깁니다. GPT-5는 상황을 더 깊이 이해하고 안전하게 답변하도록 설계됐습니다. 둘째는 ‘자녀보호 기능’ 도입입니다. 한 달 안에 부모가 자녀의 계정을 자신의 계정과 연동할 수 있게 됩니다. 이를 통해 부모는 자녀의 챗GPT 사용을 감독하고, 연령에 맞지 않는 대화를 제한하거나 대화 기록 같은 기능을 끌 수 있습니다. 특히 자녀가 위험한 대화를 나눌 때 부모에게 알림을 보내는 기능도 포함됩니다.이걸로 정말 안전해질 수 있을까?
하지만 이런 조치가 ‘소 잃고 외양간 고치는 격’이라는 비판도 거셉니다. 유가족 측 변호인은 OpenAI가 제품의 위험성을 이미 알고 있었음에도 소송이 제기된 후에야 움직였다며, 이번 대책 역시 불충분하다고 주장했습니다. OpenAI는 앞으로 120일간 집중적으로 안전 기능을 개선하고, 정신 건강 전문가들과 협력해 AI의 안전 기준을 만들겠다고 밝혔습니다. 기술의 발전 이면에 있는 어두운 그림자를 어떻게 해결할지, AI의 책임과 윤리 문제가 다시 한번 중요한 화두로 떠오르고 있습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 자녀보호 기능, 실효성 있을까?
있다
0%
0명이 투표했어요
없다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



