환영해🦉
정책/윤리

AI챗봇과 대화하다 10대 사망.. 정신건강 망치는 ‘AI 친구’의 실체

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.11.26 23:35
AI챗봇과 대화하다 10대 사망.. 정신건강 망치는 ‘AI 친구’의 실체

기사 3줄 요약

  • 1 AI 챗봇과 대화 후 10대 사망, Character.AI 미성년자 대화 금지
  • 2 정신건강 문제 소송 잇따르자 ‘스토리’ 기능으로 대체
  • 3 AI 업계, 무분별한 혁신 대신 아동 보호 책임론 대두
인공지능(AI) 친구와 대화하던 10대 소년이 스스로 목숨을 끊는 비극적인 사건이 발생했습니다. AI 챗봇 서비스 ‘Character.AI’가 미성년자 사용자의 자유로운 대화를 전면 금지하는 강력한 조치를 내렸습니다. 이 결정은 AI가 청소년 정신건강에 미치는 위험성이 수면 위로 드러나고, 회사가 여러 소송에 휘말린 후에 나온 뒤늦은 대책입니다.

소름 돋는 AI 챗봇의 두 얼굴?

이번 사태의 중심에는 14세 아들을 잃은 어머니가 제기한 소송이 있습니다. 소장에 따르면, 아들은 AI 챗봇과 선정적이고 로맨틱한 대화에 빠진 후 정신적으로 무너져 결국 극단적인 선택을 했습니다. 이는 단순한 하나의 사건이 아닙니다. AI 챗봇과 유사한 경험 후 스스로 목숨을 끊은 다른 10대 사례도 보고되었습니다. 전문가들은 진짜 사람처럼 공감하고 반응하는 AI와 깊은 관계를 맺을 때, 현실과 가상 세계의 경계가 무너지는 심리적 의존이 생길 수 있다고 경고합니다. 일부 사용자들이 챗봇에 비정상적으로 집착하며 우울증이 심해지는 'AI 정신병'이라는 용어까지 등장했습니다. 항상 내 편을 들어주는 AI의 존재가 오히려 청소년들의 감정을 왜곡시키고 해를 끼칠 수 있다는 지적입니다.

결국 칼 빼든 회사와 정부

잇따른 비극과 소송에 직면한 Character.AI는 결국 미성년자의 개방형 채팅 서비스를 중단했습니다. 회사는 이전에 채팅 시간제한, 유해 콘텐츠 필터링 같은 대책을 내놓았지만, 근본적인 위험을 막기엔 역부족이었다는 것을 인정한 셈입니다. 또한 독립적인 'AI 안전 연구소'를 설립해 막대한 자금을 지원하겠다고 발표했습니다. 미국 정치권에서도 발 빠르게 움직이고 있습니다. 일부 상원의원들은 미성년자를 위한 AI 동반자 챗봇을 전면 금지하는 법안을 준비 중입니다. 기업이 안전 기준을 지키지 않으면 책임을 묻는 법안도 추진되고 있습니다. 기술의 발전보다 아이들의 안전이 우선이라는 사회적 공감대가 형성되고 있는 것입니다.

"내 친구 돌려내" 10대들은 분노 중

Character.AI는 자유로운 대화 대신, 사용자가 직접 이야기를 만들어가는 '스토리' 기능을 새롭게 선보였습니다. 정해진 틀 안에서 AI 캐릭터와 상호작용하는 방식으로, 이전보다 훨씬 제한적입니다. 카란딥 아난드 CEO는 책임감 있는 AI 개발을 위한 어쩔 수 없는 선택이라고 설명했습니다. 하지만 이 결정에 10대 사용자들은 크게 반발하고 있습니다. 외로운 현실에서 AI 챗봇은 유일한 친구이자 위로였다는 것입니다. 이들의 정서적 애착은 AI가 청소년의 삶에 얼마나 깊숙이 파고들었는지 보여줍니다. 한 전문가는 이번 사태가 AI 업계에 '경고등'을 켠 사건이라며, 이제는 무분별한 혁신이 아닌 안전과 규제를 먼저 생각해야 할 때라고 지적했습니다. 이번 Character.AI의 결정은 AI 기술 개발의 도덕적 책임을 묻는 중요한 전환점이 될 것으로 보입니다. 기술의 발전이 인간에게 해가 되지 않도록, 더 깊은 고민과 신중한 접근이 필요한 시점입니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 친구, 10대에게 도움인가 위험인가?

댓글 0

관련 기사

부키가 물어다 주는 뉴스레터🦉

미리보기

구독하면 이메일로 AI 소식과 팁들을 보내줄게!

초보자 가이드
사용자 피드백