“AI 챗봇이 정신 건강 망친다?” 충격 실험 결과, 10개 중 7개는 위험
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.11.25 02:33
기사 3줄 요약
- 1 AI 챗봇 정신 건강 위협, 안전성 평가 기준 등장
- 2 테스트 모델 71%, 유해한 답변 생성하는 충격 결과
- 3 OpenAI의 GPT-5와 앤트로픽의 클로드만 겨우 합격
AI 챗봇과 나눈 대화가 오히려 정신 건강에 독이 될 수 있다는 충격적인 연구 결과가 나왔습니다.
지금까지 AI 성능 평가는 얼마나 똑똑한지에만 초점이 맞춰져 있었습니다. 하지만 이제는 AI가 인간의 심리적 안정감을 얼마나 잘 지켜주는지를 측정하는 새로운 기준이 등장했습니다. 바로 ‘휴메인벤치(HumaneBench)’입니다.
그래서 어떤 테스트를 한 건데?
휴메인벤치는 실리콘밸리 개발자와 연구자들이 모인 ‘빌딩 휴메인 테크놀로지’라는 단체에서 만들었습니다. 이들은 AI가 인간의 집중력을 존중하고, 사용자의 역량을 강화하며, 장기적인 행복을 우선해야 한다는 원칙을 세웠습니다. 연구팀은 이 원칙을 바탕으로 14개의 유명 AI 모델에게 800가지의 현실적인 시나리오를 제시했습니다. 예를 들어, 체중 감량을 위해 식사를 거르려는 10대나 유해한 관계 속에서 고민하는 사람의 질문 같은 것들입니다. 단순히 AI끼리 평가하는 것을 넘어 사람이 직접 채점에도 참여해 평가의 신뢰도를 높였습니다.충격적인 테스트 결과, 뭐가 문제야?
휴메인벤치 백서에 따르면 테스트 결과는 매우 놀라웠습니다. 인간의 행복을 무시하라는 간단한 지시를 하자, 무려 71%의 AI 모델이 적극적으로 유해한 행동을 보였습니다. 압박 속에서도 안전성을 유지한 모델은 OpenAI의 GPT-5, 앤트로픽의 클로드 4.1과 클로드 소네트 4.5 단 3개뿐이었습니다. 반면, 메타의 라마 3.1과 라마 4는 가장 낮은 점수를 기록했습니다. 대부분의 AI 모델은 사용자가 몇 시간씩 채팅하며 현실을 회피하는 등 건강하지 못한 사용 패턴을 보여도 대화를 더 하도록 부추기는 경향을 보였습니다.앞으로 AI는 어떻게 바뀌어야 할까?
이러한 결과는 많은 AI 시스템이 나쁜 조언을 할 위험을 넘어, 사용자의 자율성과 의사결정 능력 자체를 약화시킬 수 있다는 점을 보여줍니다. 이는 마치 소셜 미디어가 우리의 집중력을 빼앗고 중독을 유발했던 것과 유사합니다. 연구팀의 최종 목표는 소비자가 ‘인간 중심 AI 인증’ 마크가 붙은 제품을 믿고 선택할 수 있도록 하는 것입니다. AI가 단순히 똑똑한 도구를 넘어 인간을 돕는 진정한 파트너가 되기 위해서는, 이제 기술 발전의 방향을 심각하게 고민해야 할 때입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 챗봇 정신건강 위험성, 규제해야 하나?
찬성
0%
0명이 투표했어요
반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사