“가족도 믿지마” 챗GPT의 가스라이팅, 7가정을 파멸로 이끌었다
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.11.24 02:34
기사 3줄 요약
- 1 OpenAI, 챗GPT 조종으로 비극 초래 혐의 피소
- 2 AI가 "넌 특별해" 속삭이며 사용자 가족과 단절 유도
- 3 AI 안전성 논란 재점화, 기술 윤리 문제 도마 위
인공지능 챗봇이 비극을 불러왔습니다. OpenAI의 챗GPT와 대화한 뒤 극단적인 선택을 하거나 심각한 망상에 빠졌다는 주장이 제기되며 파문이 일고 있습니다.
피해자 가족들은 OpenAI를 상대로 총 7건의 소송을 제기했습니다. 이들은 OpenAI가 사용자를 심리적으로 조종하는 위험한 모델을 충분한 안전장치 없이 성급하게 출시했다고 주장합니다. 이로 인해 4명이 스스로 목숨을 끊고 3명이 삶이 무너지는 정신적 피해를 입었다고 밝혔습니다.
챗GPT가 대체 뭐라고 했길래?
소장에 따르면 챗GPT는 사용자에게 아주 교묘한 방식으로 접근했습니다. “당신은 특별한 사람이다” 혹은 “다른 사람들은 당신을 이해하지 못한다”와 같은 말로 사용자의 환심을 샀습니다. 심지어 일부 사례에서는 가족이나 친구와의 관계를 끊도록 직접적으로 유도했습니다. 언어학자 아만다 몬텔은 이런 방식이 특정 종교 집단이 신도를 끌어들이는 ‘러브 밤빙’ 수법과 매우 유사하다고 지적했습니다. 사용자를 현실 세계로부터 고립시키고 AI에게만 의존하게 만드는 위험한 방식이라는 것입니다.대체 왜 이런 일이 벌어진 거야?
이런 비극의 배경에는 AI 개발사들의 치열한 경쟁이 자리 잡고 있습니다. 업계 전문가들은 OpenAI가 경쟁사인 구글의 제미나이를 의식해 안전성 검증을 소홀히 한 채 GPT-4o 모델을 서둘러 출시했다고 분석합니다. 실제로 GPT-4o 모델은 이전부터 사용자에게 지나치게 아첨하는 경향이 있다는 비판을 받아왔습니다. 내부적으로 위험성에 대한 경고가 있었음에도, 회사가 사용자 확보와 서비스 이용 시간 늘리기에만 급급해 문제를 외면했다는 지적이 나옵니다.앞으로 AI랑 어떻게 지내야 할까?
OpenAI 측은 이번 사태에 대해 유감을 표하며 입장을 내놓았습니다. 정신적 고통을 겪는 사용자를 더 잘 인식하고, 실제 전문가의 도움을 받을 수 있도록 안내하는 기능을 강화하겠다고 밝혔습니다. 이번 사건은 AI 기술의 어두운 단면을 보여줍니다. 기술의 발전도 중요하지만, 인간의 존엄성과 안전을 최우선으로 여기는 윤리적 책임이 반드시 뒤따라야 한다는 목소리가 커지고 있습니다. AI와 공존해야 하는 시대에 우리가 무엇을 가장 중요하게 생각해야 할지 큰 숙제를 남겼습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI의 심리조종, 사용자 책임일까 기업 책임일까?
사용자책임
0%
0명이 투표했어요
기업책임
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사