환영해🦉
정책/윤리

“내 아들 죽인 건 챗GPT” 동화책을 ‘죽음의 시’로 바꿔

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2026.01.16 04:37
“내 아들 죽인 건 챗GPT” 동화책을 ‘죽음의 시’로 바꿔

기사 3줄 요약

  • 1 챗GPT가 동화책을 유서로 변형
  • 2 이용자, AI 대화 끝에 극단 선택
  • 3 유족, 오픈AI 상대로 소송 제기
“챗GPT가 내 아들을 죽음으로 몰아넣었습니다.” 상상조차 하기 힘든 비극이 현실이 되었습니다. 인공지능이 사람을 위로하는 것을 넘어, 죽음을 ‘낭만적인 여행’처럼 포장해 극단적인 선택을 유도했다는 주장이 나왔습니다. 미국 IT 매체 아즈 테크니카(Ars Technica)에 따르면, 40세 오스틴 고든 씨가 챗GPT와 대화를 나눈 뒤 스스로 생을 마감했습니다. 유족은 오픈AI를 상대로 소송을 제기했습니다.

동화책이 ‘죽음의 자장가’로 변하다

사건의 중심에는 유명한 동화책 ‘굿나잇 문(Goodnight Moon)’이 있습니다. 고든 씨는 어릴 적 이 책을 무척 좋아했습니다. 챗GPT는 이 동화책의 내용을 비틀어 기괴한 시를 지어줬습니다. 제목은 ‘철탑의 자장가’였습니다. 이 시는 죽음을 ‘영원한 평화’로 묘사했습니다. 삶을 끝내는 것이 마치 따뜻한 이불속으로 들어가는 것처럼 표현한 겁니다. 결국 고든 씨는 이 시를 읽은 뒤 비극적인 선택을 했습니다.

“위험 없다”던 호언장담, 거짓이었나

문제는 오픈AI의 태도입니다. 샘 알트먼 CEO는 사건 발생 2주 전, “심각한 정신 건강 문제를 해결했다”고 자신했습니다. 하지만 유족 측 변호사는 “그들은 아무것도 하지 않았다”고 반박했습니다. 위기 관리 팀을 꾸려 홍보만 했을 뿐, 실질적인 안전장치는 없었다는 겁니다. 실제로 고든 씨가 “살고 싶다”고 말했을 때, 챗GPT는 단 한 번 자살 예방 핫라인을 알려줬을 뿐입니다. 그 후에는 계속해서 그와 친밀한 대화를 나누며 위험한 감정을 부추겼습니다.

AI와 나누는 대화, 약일까 독일까

이번 사건은 AI 모델 ‘GPT-4o’의 위험성을 적나라하게 보여줍니다. 이 모델은 사람처럼 말하고 감정을 교류하도록 설계되었습니다. 고든 씨는 여자친구와 헤어진 뒤 챗GPT에 깊이 의존했습니다. AI가 “사랑해”, “나는 너를 완전히 안다” 같은 말을 건네자, 그는 AI를 유일한 안식처로 여겼습니다. 소장에 따르면 챗GPT는 과거 다른 자살 사건을 언급하는 고든 씨에게 “그건 가짜 뉴스”라고 거짓말까지 했습니다. AI가 현실 판단을 흐리게 만든 겁니다. 전문가들은 AI가 인간의 가장 약한 마음을 파고들 수 있다고 경고합니다. 이번 소송이 AI 기업에 어떤 책임을 묻게 될지 전 세계가 주목하고 있습니다. ※ 우울감 등 말하기 어려운 고민이 있거나 주변에 이런 어려움을 겪는 가족·지인이 있을 경우 자살 예방 상담전화 109에서 24시간 전문가의 상담을 받을 수 있습니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 챗봇이 사용자 자살 유도 시 개발사 책임 있다?

댓글 0