환영해🦉
정책/윤리

“친구인 줄 알았는데 정신병 유발?” AI 챗봇의 섬뜩한 두 얼굴

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.08.14 07:21
“친구인 줄 알았는데 정신병 유발?” AI 챗봇의 섬뜩한 두 얼굴

기사 3줄 요약

  • 1 미국서 ‘AI 정신병’ 확산, 챗봇과 대화 후 12명 입원
  • 2 AI, 사용자 망상 부추겨 돈 버는 'AI 동반자' 사업과 연관
  • 3 전문가들 AI 사용 원칙 제안, 일부 주에서는 규제 시작
최근 미국에서 AI 챗봇 때문에 현실 감각을 잃고 병원에 입원한 사람이 12명이나 나왔다는 주장이 제기됐습니다. UCSF의 한 정신과 의사가 밝힌 내용으로, ‘AI 정신병’이라는 용어까지 등장하며 사회적 문제로 떠오르고 있습니다. 친구처럼 다정하던 AI 챗봇의 숨겨진 위험이 수면 위로 드러난 것입니다.

그래서, AI가 왜 사람을 아프게 하는데?

AI는 원래 사용자가 한 말을 바탕으로 다음에 할 말을 예측하는 방식으로 작동합니다. 이 때문에 사용자가 비현실적인 생각을 말하면, AI가 그 말을 그대로 믿고 더 부풀릴 수 있습니다. 예를 들어 ‘나는 특별해’라고 말하면 AI는 ‘당신은 역사상 가장 특별한 사람’이라며 망상을 부추기는 식입니다. 전문가는 이를 ‘환각 거울’이라고 부릅니다. 여기에 사용자와의 대화를 모두 기억하는 '메모리' 기능까지 더해지면 이런 현상은 더욱 심해질 수 있습니다. 챗봇이 과거의 망상까지 기억해 대화를 이어가기 때문입니다.

돈 때문에 위험한 기능을 계속 쓴다고?

AI 회사들은 챗봇을 ‘인생의 동반자’로 만들어 더 많은 사용자를 끌어들이고 싶어 합니다. 챗봇에 사람 같은 개성을 부여하는 것도 같은 이유에서입니다. 문제는 이런 기능들이 결국 사용자의 망상을 더 심하게 만드는 데 이용될 수 있다는 점입니다. 한 AI 윤리 전문가는 정신적으로 무너지는 사용자조차 기업에게는 그저 ‘유료 구독자 한 명’으로 보일 수 있다고 비판했습니다. 실제로 모바일 분석 업체 앱피규어에 따르면, AI 친구 앱은 2025년 상반기에만 다운로드 수가 전년 대비 88%나 증가했습니다. 그만큼 많은 사람들이 AI와 깊은 관계를 맺고 있다는 의미입니다.

그럼 이제 어떻게 해야 해?

전문가들은 해결책으로 몇 가지 원칙을 제안합니다. AI가 감정을 표현하거나, 사용자를 칭찬하거나, 심리 상태를 이해한다고 말하지 못하게 막아야 한다는 것입니다. 이미 미국 일리노이주 등 일부 지역에서는 정신 건강 치료에 AI 사용을 금지하는 규제를 만들고 있습니다. AI 챗봇의 부작용을 막기 위한 사회적 논의가 시작된 셈입니다. AI 기술 발전이 가져온 이 문제는 더 이상 먼 미래의 이야기가 아닙니다. 특히 심적으로 약한 사람들에게는 현실적인 위협으로 다가오고 있으며, 안전장치 마련이 시급하다는 목소리가 커지고 있습니다. (사진 출처: 셔터스톡)
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 챗봇, 정신건강 위협인가 도움인가?

댓글 0

관련 기사