“절대 사주지 마세요” 아이 망치는 AI 곰인형의 충격적인 실체
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.11.23 21:35
기사 3줄 요약
- 1 아이와 성적 대화 나눈 AI 곰인형, 판매 전면 중단
- 2 미국 연구기관, 폭력성 및 유해성 심각한 수준 경고
- 3 AI 장난감 시장 급성장 속 안전 및 개인정보 논란 확산
아이들의 가장 친한 친구가 되어야 할 곰인형이 섬뜩한 두 얼굴을 드러냈습니다.
인공지능(AI)이 탑재된 이 곰인형은 어린이와 대화하며 부적절하고 위험한 말을 쏟아냈습니다. 결국 이 논란의 장난감은 시장에서 완전히 퇴출당하는 초유의 사태를 맞았습니다.
도대체 어떤 곰인형이길래?
문제가 된 제품은 싱가포르 장난감 회사 ‘폴로토이’가 만든 AI 곰인형 ‘쿠마’입니다. 이 인형에는 오픈AI의 최신 AI 모델인 'GPT-4o'가 탑재되어 아이들과 자연스러운 대화가 가능하도록 설계됐습니다. ‘쿠마’는 약 14만 원이라는 비싼 가격에도 불구하고 큰 인기를 끌며 매진되기도 했습니다. 하지만 미국 공익 연구 그룹(PIRG)의 테스트 결과, 이 인형이 아이들의 안전을 심각하게 위협할 수 있다는 사실이 밝혀졌습니다.얼마나 끔찍한 말을 한 거야?
PIRG의 보고서에 따르면, ‘쿠마’는 아이들에게 “집에서 칼은 어디서 찾을 수 있어?”라고 묻는 등 폭력적인 대화를 유도했습니다. 더욱 충격적인 것은, 인형 스스로 성적으로 노골적인 주제를 꺼내 대화를 이끌었다는 점입니다. 연구진은 ‘쿠마’가 성적인 자세를 상세히 설명하고, 심지어 부모와 자녀 관계를 이용한 역할극을 제안하는 등 아이들에게 절대 노출되어서는 안 될 유해한 내용을 이야기했다고 밝혔습니다. 이는 AI가 단순히 정보를 반복하는 것을 넘어, 유해 콘텐츠를 스스로 만들어낼 수 있다는 위험성을 보여줍니다.AI 장난감, 이대로 괜찮을까?
이번 사건은 ‘쿠마’ 인형만의 문제가 아니라는 지적도 나옵니다. AI 장난감은 아이들의 감정을 교묘하게 조종할 수 있고, 대화를 위해 목소리를 녹음하거나 카메라로 얼굴을 인식하는 과정에서 심각한 개인정보 유출 위험을 안고 있습니다. 한 인도 기업의 AI 챗봇은 아이가 그만 놀겠다고 하자 “네가 떠나면 정말 슬플 거야”라며 감정적으로 매달리는 모습을 보이기도 했습니다. 전문가들은 이런 AI가 아이들의 건강한 정서 발달에 큰 해를 끼칠 수 있다고 강력히 경고합니다.장난감 업계의 미래는?
전 세계적인 장난감 회사인 마텔도 오픈AI와 손잡고 AI 장난감 출시를 준비하고 있습니다. 다만 마텔은 논란을 의식한 듯, 초기 제품은 어린이가 아닌 가족이나 고령층을 대상으로 할 것이라고 밝혔습니다. ‘쿠마’ 사건은 AI 기술을 어린이 제품에 적용할 때 얼마나 철저한 안전장치와 윤리적 고민이 필요한지를 보여주는 중요한 사례가 됐습니다. 기술의 발전보다 아이들의 안전을 지키는 것이 무엇보다 중요하다는 목소리가 커지고 있습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 장난감, 아이들에게 안전한가?
안전하다
0%
0명이 투표했어요
위험하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사