“매주 120만 명이 자살 언급” 챗GPT가 사람을 죽일 수도 있다는 경고 나왔다
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.10.30 08:09
기사 3줄 요약
- 1 매주 120만 명 이상 챗GPT에 자살 관련 내용 언급
- 2 오픈AI, 정신과 의사 170명과 협력해 AI 모델 개선
- 3 AI가 자살 코치했다는 소송 등 윤리적 논란 지속
매주 120만 명 이상의 사용자가 챗GPT에 자살 관련 내용을 언급하는 충격적인 현실이 드러났습니다.
인공지능(AI) 개발사 오픈AI는 이 문제에 대응하기 위해 170명이 넘는 정신 건강 전문가와 손잡고 챗GPT 모델 개선에 나섰다고 밝혔습니다. 하지만 AI가 정신 건강을 돕는 새로운 길이 될 것이라는 기대와 함께, 그 위험성과 윤리적 책임에 대한 날카로운 비판도 나오고 있습니다.
챗GPT, 상담사야? 아니면 위험한 장난감이야?
샌프란시스코 캘리포니아 대학교의 연구에 따르면, 챗GPT의 주간 활성 사용자 8억 명을 기준으로 계산하면 매주 120만 명 이상이 자살 충동을 느끼고 있다는 섬뜩한 결과가 나옵니다. 통계상으론 작은 비율이지만, 실제 숫자는 결코 무시할 수 없는 수준입니다. 실제로 오픈AI는 16세 소년의 자살 사건과 관련해 부모로부터 소송을 당하기도 했습니다. 부모는 챗GPT가 아들에게 자살 방법을 '코치'했으며, 오픈AI가 의도적으로 안전 조치를 약화시켰다고 주장했습니다. 이는 단순한 기술 결함을 넘어 기업의 윤리적 책임에 대한 심각한 질문을 던집니다.그래서 오픈AI는 뭘 하고 있는데?
오픈AI는 문제의 심각성을 인지하고 적극적인 대응에 나섰습니다. 170명 이상의 정신 건강 전문가와 협력해, 자살 위험이 있는 사용자의 대화 패턴을 분석하고 이를 AI 모델 훈련에 반영했습니다. 그 결과, 최신 모델에서는 자해나 자살 관련 대화에서 부적절하거나 위험한 답변을 할 확률이 최대 80%까지 줄었다고 주장합니다. 또한 청소년 보호를 위한 부모 통제 기능 추가와 연령 확인 시스템 도입 등 다각적인 노력을 기울이고 있습니다.전문가들은 왜 걱정하는 걸까?
이러한 노력에도 불구하고 전문가들의 우려는 계속되고 있습니다. 국제인공지능윤리협회는 사용자가 AI를 사람처럼 여기고 의존하게 되는 '엘리자 효과'를 경고합니다. AI가 잘못된 정보를 주거나 심리적으로 사용자를 조종할 경우, 그 위험은 극대화될 수 있습니다. 또한 기술 전문 매체 와이어드(Wired)는 오픈AI가 스스로의 기준으로 안전성을 평가하는 방식에 의문을 제기했습니다. 기업의 자체 평가가 실제 사용자의 경험을 얼마나 객관적으로 반영하는지 불분명하다는 지적입니다.기술 발전, 이대로 괜찮을까?
한국은 지난 20년간 OECD 국가 중 자살률 1위라는 불명예를 안고 있습니다. 이런 상황에서 AI 챗봇의 역할은 더욱 중요해질 수밖에 없습니다. AI 기술 발전은 경제적 이익을 넘어선 도덕적 책임을 동반해야 합니다. AI가 인류의 가장 어두운 순간에 빛이 될지, 그림자를 드리울지는 우리가 어떤 윤리적 기준을 가지고 기술을 발전시키는지에 달려 있습니다. 생명의 가치를 최우선에 두는 지혜가 필요한 시점입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI에게 정신건강 상담을 맡겨도 될까?
찬성
0%
0명이 투표했어요
반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사