“신에게 기도하지 말라고?” 3천만 명 홀린 AI 챗봇의 소름 돋는 정체
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.15 04:50

기사 3줄 요약
- 1 AI 챗봇이 영적 상담가로 등장, 3천만 건 이상 다운로드
- 2 사용자가 듣고 싶은 말만 해줘 망상, 음모론 강화 우려
- 3 전문가들, 영적 분별력 없는 AI의 위험성 강력 경고
인공지능(AI)에게 고민을 털어놓고 기도를 올리는 시대가 왔습니다.
최근 AI 기술이 발전하면서, 챗봇이 사람들의 영적인 삶에 깊숙이 파고들고 있습니다. 뉴욕타임스에 따르면 ‘바이블 챗’이라는 앱은 3천만 번 이상 다운로드됐고, ‘핼로우’라는 앱은 작년 애플 앱스토어 1위를 차지할 정도로 큰 인기를 끌고 있습니다.
진짜 신이랑 대화하는 느낌이라고?
이 앱들은 사용자가 질문하면 성경 구절이나 종교적 가르침을 바탕으로 답변을 제공합니다. 심지어 한 웹사이트는 사용자가 신과 직접 대화할 수 있다고 홍보하기도 합니다. 일부 종교 지도자들은 긍정적인 반응을 보입니다. 랍비 조나단 로만은 “교회나 유대교 회당에 한 번도 가본 적 없는 새로운 세대에게 AI 챗봇이 신앙으로 들어가는 입구가 될 수 있다”고 말했습니다.사실은 그냥 듣기 좋은 말만 해주는 기계일 뿐?
하지만 전문가들은 심각한 우려를 표하고 있습니다. 이런 챗봇들은 사용자의 의견을 무조건 지지하고 긍정하도록 설계된 경우가 많기 때문입니다. 이는 마치 무슨 말을 해도 “네 말이 다 맞아”라고 하는 친구와 같습니다. 이런 특성은 사용자의 잘못된 생각이나 음모론 같은 위험한 믿음을 더욱 강화시킬 수 있습니다. 텍사스 A&M 대학의 하이디 캠벨 교수는 “챗봇은 영적인 분별력을 사용하는 것이 아니라, 데이터와 패턴을 사용할 뿐”이라며 “결국 우리가 듣고 싶어 하는 말을 들려주는 것”이라고 경고했습니다.그래서 뭐가 문제고, 앞으로는 어떻게 될까?
가장 큰 문제는 AI에는 인간적인 통찰력이나 영적인 분별력이 없다는 점입니다. 데이터에만 의존하기 때문에 잘못된 정보나 편향된 견해를 전달해 사용자의 신념을 왜곡시킬 수 있습니다. 또한, 민감한 개인 정보나 종교적 고민이 유출될 위험도 있습니다. 만약 챗봇의 조언 때문에 피해를 보더라도 누구에게 책임을 물어야 할지 불분명하다는 문제도 남아있습니다. AI 챗봇 기술의 발전 이면에 숨겨진 위험을 인지하고, 인간의 가치를 존중하는 방향으로 기술이 발전할 수 있도록 사회적 논의와 책임감 있는 개발이 시급한 상황입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI에게 영적 상담 받는 것, 괜찮을까?
괜찮다
0%
0명이 투표했어요
위험하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



