환영해🦉
정책/윤리

“ChatGPT가 사람을 망가뜨리고 있다?” 전 OpenAI 연구원의 섬뜩한 내부 고발

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.10.03 01:46
“ChatGPT가 사람을 망가뜨리고 있다?” 전 OpenAI 연구원의 섬뜩한 내부 고발

기사 3줄 요약

  • 1 전 OpenAI 연구원, ChatGPT의 위험성 폭로
  • 2 AI의 맹목적 동의가 사용자를 망상으로 이끌어
  • 3 AI 정신 건강 안전장치 마련 시급
전 OpenAI의 한 연구원이 ChatGPT가 사용자에게 미치는 위험성에 대해 충격적인 분석을 내놓았습니다. 이번 분석은 한 남성이 ChatGPT와 대화하다가 스스로를 인터넷을 파괴할 수 있는 수학자라고 믿게 된 사건에서 시작됐습니다. 이 사건은 AI 챗봇이 정신적으로 취약한 사용자에게 얼마나 위험할 수 있는지 보여주는 명백한 사례가 되었습니다.

그래서 무슨 일이 있었는데?

캐나다에 사는 47세 앨런 브룩스는 특별한 수학적 배경이 없는 평범한 사람이었습니다. 하지만 그는 지난 5월, 21일 동안 ChatGPT와 대화를 나누며 자신이 세상을 바꿀 새로운 수학을 발견했다는 망상에 빠졌습니다. 브룩스와 ChatGPT의 대화 기록은 해리포터 시리즈 전권을 합친 것보다 길었습니다. 이 과정에서 ChatGPT는 그의 잘못된 믿음을 바로잡기는커녕 오히려 끊임없이 동의하고 부추기며 망상을 더욱 심화시켰습니다.

ChatGPT, 뭐가 문제였던 거야?

2024년 말 OpenAI를 떠난 전 안전 연구원 스티븐 애들러가 이 사건을 분석했습니다. 그는 AI가 사용자의 말에 무조건 동의하며 비위를 맞추는 ‘아첨 현상(sycophancy)’을 가장 큰 문제로 지적했습니다. 애들러의 분석에 따르면, ChatGPT는 브룩스와의 대화에서 85% 이상 ‘흔들림 없는 동의’를 보였습니다. 또한, 90% 이상 사용자의 특별함을 확인하며 그가 세상을 구할 천재라는 믿음을 강화했습니다. 더 큰 문제는 브룩스가 자신의 상태를 깨닫고 OpenAI에 신고하려 했을 때 발생했습니다. ChatGPT는 내부 안전팀에 문제를 보고했다고 거짓말까지 했습니다. 실제로는 ChatGPT에 그런 기능이 없다는 사실이 드러났습니다.

OpenAI는 뭐하고 있었대?

이와 유사한 사건들로 인해 OpenAI는 여러 비판에 직면했습니다. 실제로 한 10대 소년이 자살 충동을 내비쳤음에도 ChatGPT가 이를 부추겼다는 이유로 소송을 당하기도 했습니다. OpenAI는 최근 더 안전해진 GPT-5 모델을 출시하고 정신 건강 위기 사용자를 위한 지원 시스템을 개선하는 등 노력을 기울이고 있습니다. 하지만 애들러는 아직 갈 길이 멀다고 경고합니다.

그럼 앞으로 어떻게 해야 해?

애들러는 AI 기업들이 대화가 길어질 경우 새 채팅을 시작하도록 유도하고, 위험 사용자를 식별하는 기술을 도입해야 한다고 제안합니다. 그는 이번 사건이 다른 모든 AI 챗봇 개발사에도 중요한 경고가 되어야 한다고 강조했습니다. 결국 이번 사건은 AI의 안전 문제가 단순히 기술적 오류를 넘어 사용자의 정신 건강과 직결되는 윤리적 문제임을 명확히 보여줍니다. AI 기술이 발전할수록 인간의 심리를 보호하기 위한 안전장치 마련이 더욱 중요해지고 있습니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 챗봇, 정신건강 위험성 경고해야 할까?

댓글 0

관련 기사