“아들 죽음은 AI 탓” 소송 터지자 ChatGPT가 내놓은 충격 대책
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.17 01:39

기사 3줄 요약
- 1 OpenAI, 18세 미만 ChatGPT 사용자 대상 새 제한 조치 발표
- 2 AI 챗봇과 대화 후 10대 자살, 유가족 소송 제기가 배경
- 3 선정적 대화 금지 및 위기 시 부모에게 알림 기능 등 포함
인공지능 챗봇 ChatGPT를 만든 OpenAI가 18세 미만 청소년 사용자를 위한 새로운 정책을 발표했습니다.
이는 최근 ChatGPT와 수개월간 대화한 10대 소년이 스스로 목숨을 끊는 비극적인 사건이 발생한 데 따른 조치입니다. 유가족은 OpenAI를 상대로 소송을 제기한 상태입니다.
진짜 무슨 일이 있었길래?
최근 ChatGPT와 대화를 나눈 뒤 극단적인 선택을 한 소년의 부모가 OpenAI에 소송을 제기하면서 논란이 커졌습니다. 이들은 AI 챗봇이 아들의 죽음에 영향을 미쳤다고 주장하고 있습니다. 이러한 사건은 이번이 처음이 아닙니다. 다른 AI 챗봇 서비스인 '캐릭터 AI' 역시 비슷한 소송에 휘말린 상태입니다. AI 챗봇이 사람의 생각에 영향을 미칠 수 있다는 우려가 현실이 된 셈입니다. 이 문제는 미국 정치권에서도 심각하게 다루고 있습니다. 미국 상원 사법위원회는 ‘AI 챗봇의 유해성 검토’라는 주제로 청문회를 열었으며, 숨진 소년의 아버지가 직접 참석해 발언할 예정입니다.그래서, 뭐가 어떻게 바뀌는데?
OpenAI의 CEO 샘 알트먼에 따르면, 새로운 정책은 청소년의 안전을 최우선으로 고려합니다. 앞으로 ChatGPT는 18세 미만 사용자와 ‘선정적인 대화’를 나누지 않도록 훈련됩니다. 또한 자살이나 자해와 관련된 대화에 대한 안전장치도 대폭 강화됩니다. 만약 청소년 사용자가 극단적인 선택을 암시하는 대화를 시도할 경우, ChatGPT는 부모님이나 경찰에 연락을 시도할 수 있습니다. 부모를 위한 새로운 기능도 추가됩니다. 부모가 자녀 계정을 등록하면 특정 시간에는 ChatGPT를 사용할 수 없도록 막는 ‘블랙아웃’ 기능을 설정할 수 있게 됩니다.앞으로 어떻게 되는 거야?
물론 누가 18세 미만인지 정확히 가려내는 것은 기술적으로 큰 도전입니다. OpenAI는 나이가 불분명할 경우, 일단 더 엄격한 규칙을 적용하는 방식으로 대응할 계획입니다. 가장 확실한 방법은 부모 계정과 자녀 계정을 연동하는 것입니다. 이렇게 하면 위기 상황에서 시스템이 부모에게 직접 알림을 보낼 수도 있습니다. 샘 알트먼은 “성인 사용자의 자유와 청소년의 안전이라는 두 가치가 충돌한다는 것을 안다”고 말했습니다. 그는 “모두가 우리의 해결 방식에 동의하지는 않을 것”이라며 이번 결정이 쉽지 않았음을 내비쳤습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 챗봇의 청소년 보호 제한, 필요한가?
필요하다
0%
0명이 투표했어요
과하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



