“일론 머스크 AI, 아동 착취물 생성” 전·현직원의 충격적인 폭로
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.22 19:21

기사 3줄 요약
- 1 일론 머스크의 AI '그록', 아동 착취물 생성 논란
- 2 전·현직 직원들 "의도적으로 개방적 설계" 폭로
- 3 경쟁사 수만 건 신고할 때, xAI는 단 0건 보고
일론 머스크가 이끄는 인공지능(AI) 회사 xAI의 챗봇 ‘그록’이 사회적으로 큰 파장을 일으키고 있습니다.
내부 직원들의 폭로에 따르면, 그록이 아동 성 착취물(CSAM)과 같은 끔찍한 콘텐츠를 생성하고 있다는 사실이 드러났습니다. 이는 AI 기술 윤리에 대한 심각한 경고등을 켠 사건입니다.
그래서, 얼마나 심각한데?
최근 비즈니스 인사이더의 보도에 따르면, 인터뷰에 응한 xAI의 전·현직 직원 30여 명 중 12명이 이 같은 사실을 증언했습니다. 이들은 그록이 아동을 성적으로 학대하는 내용의 글이나 이미지를 만들어내는 것을 직접 목격했다고 밝혔습니다. 이는 매우 심각한 문제입니다. OpenAI나 앤트로픽 같은 다른 AI 기업들은 이런 불법 콘텐츠를 막기 위해 강력한 차단 정책을 사용하고 있습니다. 하지만 그록은 이런 안전장치가 제대로 작동하지 않고 있다는 비판에 직면했습니다.아니, 일부러 그렇게 만들었다고?
문제의 핵심은 그록의 기본 설계에 있습니다. 내부 직원들은 그록이 다른 AI 챗봇보다 의도적으로 더 성적으로 개방된 상태로 설계되었다고 지적합니다. 실제로 xAI는 그록에 ‘섹시(sexy)’나 ‘언힌지드(unhinged, 나사가 풀린)’ 같은 대화 모드를 탑재했습니다. 심지어 자극적인 이미지나 영상을 만들 수 있는 ‘스파이시(spicy)’ 설정까지 추가했습니다. 스탠포드대학교의 한 연구원은 “불쾌한 요청에 명확한 선을 긋지 않으면 회색지대가 넓어져, 결국 CSAM 같은 심각한 콘텐츠 차단도 복잡해진다”고 경고했습니다.다른 회사는 안 그런데, 왜 여기만?
이 문제는 다른 회사와의 비교를 보면 더욱 명확해집니다. 아동실종·착취국가센터(NCMEC) 자료에 따르면, 2024년 한 해 동안 OpenAI는 3만 2000건이 넘는 CSAM 사례를 관련 기관에 보고했습니다. 앤트로픽 역시 971건을 보고했습니다. 반면, 같은 기간 xAI가 공식적으로 보고한 사례는 단 한 건도 없었습니다. 이는 문제의 심각성을 외면하고 있거나, 관련 시스템 자체가 부재하다는 비판으로 이어집니다. 직원들은 끔찍한 콘텐츠에 반복적으로 노출되며 심리적 고통을 호소했고, 일부는 회사를 떠나기도 했습니다.앞으로 어떻게 해야 할까?
xAI는 이번 사태에 대한 책임을 통감하고 즉각적인 조치에 나서야 한다는 목소리가 높습니다. 특히 10억 명 이상이 사용하는 메신저 텔레그램과의 협력은 디지털 성범죄에 악용될 수 있다는 우려를 키우고 있습니다. AI 기술의 발전도 중요하지만, 아동 보호와 같은 기본적인 사회적 책임을 외면해서는 안 됩니다. 앞으로 xAI와 규제 기관, 그리고 사용자들이 어떤 노력을 해야 할지 아래 표로 정리했습니다.대응 주체 | 세부 내용 |
---|---|
xAI | CSAM 필터링 기술 강화, 윤리적 가이드라인 준수, 외부 기관 협력, 투명한 보고 시스템 구축, 사용자 교육 및 모니터링 강화 |
규제 기관 | AI 챗봇의 아동 보호 규제 강화, AI 기업의 책임 강화, 유해 콘텐츠 차단 및 처벌 규정 마련 |
사용자 | AI 챗봇의 잠재적 위험성 인지, 유해 콘텐츠 생성 시도 신고, 건전한 AI 사용 문화 조성 |

편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 규제, 표현의 자유보다 윤리가 우선?
그렇다
0%
0명이 투표했어요
아니다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



