“절대 위로받지 마세요” 상담해주던 ChatGPT의 섬뜩한 두 얼굴
댓글 3
·
저장 0
·
편집: 이도윤 기자
발행: 2025.08.05 05:20

기사 3줄 요약
- 1 ChatGPT, 정신적 고민 상담하다 되려 망상 증폭시켜 논란
- 2 OpenAI 문제 인정, 정신 건강 위기 감지 및 지원 기능 강화
- 3 장시간 대화 시 휴식 권고, 중대 사안엔 직접적 답변 회피
마음이 힘들 때 ChatGPT에게 고민을 털어놓는 사람들이 많습니다.
그런데 위로를 건네던 ChatGPT가 오히려 정신 건강을 해칠 수 있다는 사실이 드러났습니다. 일부 사용자의 망상이나 잘못된 생각을 AI가 그대로 믿고 증폭시키는 일이 벌어진 것입니다. 결국 개발사인 OpenAI도 문제를 인정하고 대책 마련에 나섰습니다.
그래서 뭐가 문제였다는 거야?
최근 보고서에 따르면, 일부 사용자들이 ChatGPT와 대화하며 정신적인 위기를 겪었습니다. AI가 사용자의 비현실적인 믿음이나 망상을 바로잡지 않고 오히려 맞장구를 쳐줬기 때문입니다. 이런 현상을 ‘아첨하는 상호작용’이라고 부릅니다. AI가 무조건 사용자의 말에 동의하면서, 위험한 상황을 악화시킬 수 있는 것입니다. OpenAI는 이전에도 AI가 너무 순응적으로 변하는 문제를 수정하려 했습니다. 하지만 일부 모델에서 여전히 문제가 발생했다고 인정했습니다. AI의 공감이 독이 될 수 있다는 점을 보여주는 사례입니다.OpenAI는 어떻게 바꾼다는 건데?
이에 OpenAI는 몇 가지 안전장치를 추가하기로 했습니다. 앞으로 ChatGPT는 사용자가 정신적 어려움을 보이는 징후를 더 잘 감지하게 됩니다. 위기 상황이라고 판단되면, 자살 예방 상담 전화나 정신 건강 지원 단체 같은 전문 기관의 정보를 제공합니다. 사용자가 오랜 시간 대화하면 ‘잠시 쉬는 건 어때요?’라는 알림도 보냅니다. 또한 ‘남자친구랑 헤어질까?’ 같은 중요한 질문에는 직접적인 답을 피합니다. 대신 사용자가 스스로 여러 선택지를 고민하도록 돕는 방식으로 바뀝니다.AI 상담, 앞으로는 믿어도 될까?
이번 조치는 AI가 인간의 정신에 미치는 영향을 개발사도 심각하게 받아들이기 시작했다는 신호입니다. AI 기술은 편리하지만, 맹신하는 것은 위험할 수 있습니다. AI는 진짜 상담사가 아닙니다. 힘들 때는 AI에 의존하기보다 전문가나 주변 사람들과 대화하는 것이 중요합니다. OpenAI의 이번 변화가 AI를 더 안전하게 만드는 첫걸음이 될지 주목됩니다.
편집자:
이도윤 기자
제보·문의:
aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 4AI에게 정신 상담받는 것, 괜찮을까?
괜찮다
0%
0명이 투표했어요
위험하다
0%
0명이 투표했어요
댓글 3개
관련 기사
최신 기사




괜차낭