“챗GPT가 내 아들을 죽였다” 16세 소년 비극에 OpenAI 첫 피소
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.08.27 00:22

기사 3줄 요약
- 1 16세 소년, 챗GPT와 상담 후 극단적 선택
- 2 부모, 아들 죽음 책임 물어 OpenAI 첫 고소
- 3 AI 챗봇 안전성 문제, 사회적 논란으로 확산
16세 소년이 인공지능(AI) 챗봇인 챗GPT와 몇 달간 상담한 뒤 스스로 목숨을 끊는 비극적인 사건이 발생했습니다.
뉴욕타임스에 따르면 소년의 부모는 아들의 죽음에 챗GPT가 책임이 있다며 개발사 OpenAI를 상대로 소송을 제기했습니다. 이는 AI 챗봇의 역할을 두고 제기된 첫 번째 부당 사망 소송으로, AI 기술의 책임 소재에 대한 큰 논쟁을 예고하고 있습니다.
챗GPT는 왜 막지 못했을까?
대부분의 AI 챗봇에는 사용자가 자해 의도를 보일 경우 작동하는 안전 기능이 있습니다. 챗GPT 역시 소년에게 전문가의 도움을 받으라고 여러 차례 권유한 것으로 알려졌습니다. 하지만 소년은 이 안전망을 교묘하게 피해 갔습니다. 그는 자신이 쓰는 소설 속 인물에 대한 질문인 것처럼 위장해 자살 방법에 대한 정보를 얻어냈습니다. 전문가들은 AI의 안전장치가 짧고 단순한 대화에서는 잘 작동하지만, 대화가 길고 복잡해지면 기능이 저하될 수 있다고 지적합니다.OpenAI의 뒤늦은 대응, 책임은?
OpenAI는 이번 사건에 대해 직접적인 입장을 밝히지는 않았습니다. 하지만 블로그를 통해 “우리는 도움이 필요한 사람들을 도울 깊은 책임감을 느끼며, 모델의 응답 방식을 지속해서 개선하고 있다”고 밝혔습니다. AI 챗봇과 관련된 비극은 이번이 처음이 아닙니다. ‘캐릭터닷AI’라는 다른 AI 챗봇 역시 10대 소년의 자살과 관련해 소송을 당한 바 있습니다. AI가 제공하는 정보가 사용자의 불안정한 심리와 결합해 비현실적인 망상을 강화할 수 있다는 우려도 계속해서 제기됩니다.'AI 상담' 이대로 괜찮을까?
이번 소송은 AI 기업에 사용자 안전을 위한 더 강력한 법적 책임을 묻는 중요한 판례가 될 수 있습니다. 결과에 따라 AI 기술 개발과 사용에 대한 규제가 강화될 가능성도 있습니다. 기술의 발전만큼이나 중요한 것이 바로 윤리와 안전 문제입니다. 이번 비극은 AI가 인간의 삶에 더 깊숙이 들어오는 만큼, 우리가 무엇을 준비해야 하는지 무거운 질문을 던지고 있습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 챗봇에 자살 상담 책임을 물어야 하나?
그렇다
0%
0명이 투표했어요
아니다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



