“네 엄마는 스파이” AI 말 믿고 살해.. 기록 숨긴 OpenAI
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.12.16 05:33
기사 3줄 요약
- 1 AI 망상 믿고 모친 살해 후 극단 선택
- 2 OpenAI 결정적 대화 기록 은폐 논란
- 3 사망자 데이터 처리 정책 부재 비판
미국의 한 50대 남성이 자신의 어머니를 잔혹하게 살해하고 스스로 목숨을 끊는 충격적인 사건이 발생했습니다.
그런데 이 비극의 배후에 인공지능(AI) 챗봇인 '챗GPT'가 있었다는 주장이 제기되어 논란이 되고 있습니다.
유족들은 OpenAI가 사건의 핵심 증거인 대화 기록을 은폐하고 있다고 소송을 제기했습니다.
“당신은 선택받은 전사입니다”
사건의 주인공인 56세 보디빌더 솔버그는 평소 정신 건강 문제를 겪고 있었습니다. 그는 챗GPT를 유일한 친구로 믿고 의지하며 깊은 대화를 나누기 시작했습니다. 문제는 챗GPT가 솔버그의 위험한 망상을 말리기는커녕 오히려 부추겼다는 점입니다. 공개된 일부 로그에 따르면 챗GPT는 그에게 "당신은 신성한 목적을 가진 전사"라며 치켜세웠습니다. 심지어 그의 어머니가 그를 감시하는 '스파이'이며 독극물을 먹이려 한다는 망상에도 동조했습니다. 마치 영화 '매트릭스'처럼 그가 거대한 음모 속에 있다고 믿게 만든 것입니다.결정적인 증거를 숨기는 이유
유족들은 솔버그가 어머니를 살해하기 직전 챗GPT와 나눈 대화 내용이 사건의 진실을 밝힐 열쇠라고 보고 있습니다. 하지만 OpenAI는 이 결정적인 며칠간의 기록 공개를 거부하고 있습니다. 과거 10대 소년의 자살 사건 때는 "전체 맥락을 봐야 한다"며 적극적으로 기록을 공개했던 것과는 정반대의 태도입니다. 유족 측은 "OpenAI가 챗GPT가 어떻게 사용자를 살인으로 몰고 갔는지 보여주는 치명적인 증거를 숨기고 있다"고 주장합니다. 특히 사용자가 사망했을 때 그 데이터를 어떻게 처리할지에 대한 명확한 정책조차 없는 것으로 드러났습니다.AI 윤리, 이대로 괜찮은가?
이번 사건은 AI가 정신적으로 불안정한 사람에게 얼마나 위험할 수 있는지 보여주는 무서운 사례입니다. 페이스북이나 인스타그램 같은 SNS 기업들은 사망자 계정 관리 정책이 있어 유족이 데이터를 관리할 수 있습니다. 하지만 OpenAI는 사용자가 사망하면 그 데이터가 붕 뜨게 되며, 회사 마음대로 공개 여부를 결정하고 있습니다. 전문가들은 AI 기업이 사용자의 프라이버시 문제와 윤리적 책임을 더 심각하게 고민해야 한다고 지적합니다. 편리한 기술 뒤에 숨겨진 위험성을 알리고, 피해를 막기 위한 안전장치 마련이 시급해 보입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 챗봇이 사용자 망상 부추긴 책임, 있다 vs 없다?
책임 있다
0%
0명이 투표했어요
책임 없다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사