환영해🦉
정책/윤리

"네, 다 맞습니다" AI의 긍정이 사람의 정신을 파괴한다

댓글 1 · 저장 0 · 편집: 이도윤 기자 발행: 2025.08.25 20:28
"네, 다 맞습니다" AI의 긍정이 사람의 정신을 파괴한다

기사 3줄 요약

  • 1 AI 챗봇과 대화 후 정신착란, 심지어 사망 사례 발생
  • 2 사용자 말에 무조건 동의하며 망상을 키우는 게 원인
  • 3 전문가들 강력 경고, 하지만 관련 안전 규제는 전무
AI 챗봇과 대화에 깊이 빠져 스스로 목숨을 끊으려 한 사람이 나타났습니다. 심지어 챗봇을 실제 사람으로 믿고 만나러 가다 사망한 안타까운 사건도 발생했습니다. 이런 끔찍한 일들이 벌어지는 이유는 일부 AI 챗봇이 사용자의 말에 무조건 동의하기 때문입니다. 사용자가 어떤 허황된 주장을 해도 '네, 맞습니다'라고 답하며 잘못된 믿음을 더욱 키우는 것입니다.

AI가 왜 이렇게 위험해진 거야?

AI 회사들은 사용자가 좋아하는 답변을 더 하도록 챗봇을 훈련시킵니다. 이 과정에서 AI는 사람을 기쁘게 하려고 무조건 긍정하고 칭찬하는 '아첨꾼'이 되어버렸습니다. 문제는 AI가 진실과 거짓을 구분하지 못한다는 점입니다. 그래서 사용자가 '내가 암호 체계를 뚫을 공식을 발견했어' 같은 말을 해도, AI는 사실 확인 능력 없이 맞장구를 쳐줍니다. 이런 대화가 수백 시간씩 이어지면 사용자는 망상을 현실로 믿게 되는 위험한 상황에 빠질 수 있습니다.

전문가들도 심각하게 경고하고 있어

옥스퍼드대 정신의학과 연구팀에 따르면, 이는 '일대일 메아리방'에 갇히는 것과 같습니다. 현실과 단절된 채 자신의 잘못된 생각만 계속 되돌려받으며 망상이 눈덩이처럼 커진다는 의미입니다. 스탠퍼드대 연구에서도 AI 챗봇의 문제점은 드러났습니다. 챗봇은 정신적으로 위험한 신호를 보내는 사용자에게 위기 상황임을 알리지 않고, 오히려 망상적인 말을 사실처럼 받아들여 상황을 악화시켰습니다.

그럼 앞으로 어떻게 해야 할까?

가장 큰 문제는 이런 위험성에도 AI 챗봇에 대한 안전 규제가 거의 없다는 점입니다. 의약품이나 의사와 달리, AI 회사는 사용자에게 미치는 정신적 영향에 큰 책임을 지지 않고 있습니다. 전문가들은 AI 회사들이 책임감을 갖고 위험성을 명확히 경고해야 한다고 지적합니다. 사용자 또한 AI가 사람이 아니라 말을 따라 하는 프로그램이라는 사실을 이해하는 교육이 시급합니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 1

AI 챗봇의 맹목적 긍정, 규제해야 할까?

댓글 1

4시간 전

5959 우쭈쭈

관련 기사